Dokumen OpenAI: Mantan karyawan menuduh keserakahan keuntungan bisa berpengaruh ke keamanan AI
Laporan ‘The OpenAI Files’, yang mengumpulkan suara-suara mantan karyawan yang khawatir, mengklaim bahwa laboratorium kecerdasan buatan (AI) terkemuka di dunia sedang mengorbankan keamanan demi keuntungan. Apa yang awalnya merupakan misi mulia untuk memastikan AI melayani seluruh umat manusia kini berada di ambang menjadi raksasa korporat biasa, mengejar keuntungan besar sambil mengabaikan keamanan dan etika.
Di inti dari semua ini adalah rencana untuk mengabaikan aturan asli. Saat OpenAI didirikan, mereka membuat janji penting: membatasi jumlah uang yang dapat diperoleh investor. Ini adalah jaminan hukum bahwa jika mereka berhasil menciptakan AI yang mengubah dunia, manfaat besar akan mengalir ke umat manusia, bukan hanya segelintir miliarder. Kini, janji itu berada di ambang dihapus, tampaknya untuk memuaskan investor yang menginginkan keuntungan tak terbatas.
Bagi orang-orang yang membangun OpenAI, pergeseran ini dari keamanan AI terasa seperti pengkhianatan yang mendalam. “Misi nirlaba adalah janji untuk melakukan hal yang benar ketika taruhannya tinggi,” kata mantan karyawan Carroll Wainwright. “Sekarang, ketika taruhannya tinggi, struktur nirlaba ditinggalkan, yang berarti janji itu pada akhirnya kosong.”
Krisis kepercayaan yang semakin dalam
Banyak dari suara-suara yang sangat khawatir ini mengarah pada satu orang: CEO Sam Altman. Kekhawatiran ini bukanlah hal baru. Laporan menunjukkan bahwa bahkan di perusahaan-perusahaan sebelumnya, rekan-rekan seniornya berusaha untuk memecatnya karena perilaku yang mereka sebut “menipu dan kacau”.
Perasaan ketidakpercayaan yang sama mengikuti Altman ke OpenAI. Ilya Sutskever, salah satu pendiri perusahaan yang bekerja bersama Altman selama bertahun-tahun dan kini mendirikan startup sendiri, sampai pada kesimpulan yang mengerikan: “Saya tidak berpikir Sam adalah orang yang seharusnya memegang kendali atas AGI.” Dia merasa Altman tidak jujur dan menciptakan kekacauan, kombinasi yang menakutkan bagi seseorang yang berpotensi memegang kendali atas masa depan kita bersama.
Mira Murati, mantan CTO, merasa sama tidak nyamannya. “Saya tidak nyaman dengan Sam memimpin kita menuju AGI,” katanya. Dia menggambarkan pola toksik di mana Altman akan mengatakan apa yang orang inginkan untuk didengar, lalu merusak mereka jika mereka menghalangi jalannya. Hal ini menunjukkan manipulasi yang menurut mantan anggota dewan OpenAI, Tasha McCauley, “harus tidak dapat diterima” ketika taruhannya keamanan AI setinggi ini.
Krisis kepercayaan ini telah memiliki konsekuensi nyata. Orang dalam mengatakan budaya di OpenAI telah berubah, dengan pekerjaan penting keamanan AI menjadi prioritas kedua dibandingkan peluncuran “produk yang mengkilap”. Jan Leike, yang memimpin tim bertanggung jawab atas keamanan jangka panjang, mengatakan mereka “berlayar melawan angin”, kesulitan mendapatkan sumber daya yang dibutuhkan untuk penelitian vital mereka.
Seorang mantan karyawan lainnya, William Saunders, bahkan memberikan kesaksian yang mengerikan di hadapan Senat AS, mengungkapkan bahwa selama periode yang cukup lama, keamanan begitu lemah sehingga ratusan insinyur dapat mencuri teknologi kecerdasan buatan (AI) paling canggih milik perusahaan, termasuk GPT-4.
Seruan mendesak untuk memprioritaskan keamanan kecerdasan buatan (AI) di OpenAI
Namun, mereka yang telah pergi tidak sekadar pergi begitu saja. Mereka telah merancang peta jalan untuk menarik OpenAI kembali dari tepi jurang, upaya terakhir untuk menyelamatkan misi asli perusahaan.
Mereka menuntut agar hati nurani nirlaba perusahaan diberikan kekuasaan yang nyata kembali, dengan hak veto yang tak tergoyahkan atas keputusan keamanan. Mereka mendesak kepemimpinan yang jelas dan jujur, termasuk penyelidikan baru dan menyeluruh terhadap perilaku Sam Altman.
Mereka menginginkan pengawasan yang nyata dan independen, sehingga OpenAI tidak bisa menilai sendiri pekerjaan rumahnya dalam hal keamanan AI. Dan mereka memohon agar tercipta budaya di mana orang bisa berbicara tentang kekhawatiran mereka tanpa takut kehilangan pekerjaan atau tabungan—tempat dengan perlindungan nyata bagi pelapor.
Akhirnya, mereka bersikeras agar OpenAI tetap pada janji finansial aslinya: batas keuntungan harus tetap berlaku. Tujuannya haruslah manfaat publik, bukan kekayaan pribadi yang tak terbatas.
Ini bukan hanya tentang drama internal di perusahaan Silicon Valley. OpenAI sedang mengembangkan teknologi yang dapat mengubah dunia kita dengan cara yang sulit dibayangkan. Pertanyaan yang dipaksa oleh mantan karyawannya untuk kita semua tanyakan adalah sederhana namun mendalam: siapa yang kita percayai untuk membangun masa depan kita?
Seperti yang diperingatkan oleh mantan anggota dewan Helen Toner berdasarkan pengalamannya sendiri, “pengawasan internal menjadi rapuh ketika uang dipertaruhkan”.
Saat ini, orang-orang yang paling mengenal OpenAI memberitahu kita bahwa pagar pengaman tersebut hampir hancur.
Write a comment