teknoflux.com – Para ahli di bidang teknologi telah mengeluarkan peringatan terhadap generator videoAI Sora milik OpenAI yang menunjukkan potensi besar dalam menimbulkan risiko keamanan. Kecerdasan buatan, yang merupakan salah satu teknologi paling canggih dan menakutkan dalam beberapa tahun terakhir, telah menimbulkan kekhawatiran akan bahaya yang dapat ditimbulkan pada pekerjaan dan gelar universitas karena kemampuannya yang luar biasa.
Sora adalah alat teks-ke-video yang dikembangkan oleh perusahaan AI OpenAI, yang memungkinkan pengguna untuk mengetikkan perintah teks dan menghasilkan video menggunakan teknologi tersebut. Namun, para ahli telah memperingatkan bahwa realisme yang ditawarkan oleh Sora dapat menimbulkan masalah keamanan karena berpotensi menciptakan deepfake (video yang dimanipulasi sehingga tampak seperti milik orang lain) berkualitas tinggi yang dapat dengan mudah menipu orang.
Dengan kemampuannya untuk membuat video berdurasi hingga 60 detik hanya berdasarkan perintah yang diberikan oleh pengguna, Sora dapat membuat video dengan banyak kesalahan, seperti kucing dengan tiga kaki depan. Namun, para ahli memperingatkan bahwa hal ini membawa kita lebih dekat ke dunia di mana sulit membedakan yang asli dari yang palsu.
Arvind Narayanan, seorang ahli dari Universitas Princeton, memperingatkan bahwa dalam jangka panjang, “kita perlu menemukan cara lain untuk beradaptasi sebagai masyarakat”. Seperti yang dikemukakan oleh pakar lain, maraknya konten buatan AI di dunia maya memberikan beban tambahan kepada orang-orang untuk menentukan mana yang fakta dan fiksi.
Tony Elkins, seorang penulis di Poynter dan anggota pendiri News Product Alliance, menyatakan bahwa “sekarang kita harus bertanya apa yang nyata. Kita harus melakukannya untuk foto. Kita harus melakukannya untuk teks. Kita harus melakukannya untuk video. Dan itu menciptakan begitu banyak tanggung jawab pada konsumen yang sebelumnya tidak pernah ada.”