OpenAI secara sistematis dan merencanakan pergeseran mendasar dari "untuk kesejahteraan umat manusia" menjadi "untuk keuntungan investor", CEO Altman memiliki pola jangka panjang yang terdokumentasi dengan baik dari kata-kata dan tindakan yang tidak konsisten, manipulasi informasi dan pengelakan pengawasan, dan pengikatan mendalam investasi pribadi dengan bisnis perusahaan. (Sinopsis: GPT-5 debut musim panas ini!) Sam Altman mengungkapkan cetak biru model generasi berikutnya OpenAI, ambisi StarGate, apakah akan ada iklan? (Latar belakang ditambahkan: Bom Kejut OpenAI!) Akuisisi desainer Apple legendaris Jony Ive io, Altman: "Perangkat keras AI paling fantastis" sedang dalam perjalanan) Laporan interaktif lebih dari 50 halaman dan lebih dari 10.000 kata mengungkapkan evolusi OpenAI dari laboratorium penelitian nirlaba menjadi raksasa nirlaba. Baru-baru ini, dua organisasi pengawas teknologi nirlaba, Midas Project dan Tech Oversight Project, merilis investigasi mendalam yang disebut OpenAI Archives. Laporan itu, yang dipimpin oleh Tyler Johnston, direktur eksekutif Proyek Midas, membutuhkan waktu hampir satu tahun untuk mengumpulkan informasi publik dan satu bulan penulisan intensif. Laporan tersebut menyebutnya "kompilasi paling komprehensif hingga saat ini dari kekhawatiran yang terdokumentasi tentang OpenAI dalam hal praktik tata kelola perusahaan, integritas kepemimpinan, dan budaya organisasi." Dengan menyisir sejumlah besar materi publik seperti file pengungkapan perusahaan, proses hukum, surat terbuka, dan laporan media, laporan interaktif lebih dari 10.000 kata menemukan bahwa OpenAI secara sistematis dan merencanakan pergeseran mendasar dari "untuk kesejahteraan umat manusia" menjadi "untuk keuntungan investor", dengan CEO Altman memiliki pola jangka panjang yang terdokumentasi dengan baik dari kata-kata dan tindakan yang tidak konsisten, manipulasi informasi dan penghindaran pengawasan, dan pengikatan mendalam investasi pribadi ke bisnis perusahaan. OpenAI bertentangan dalam hal keamanan dan transparansi, dan komitmen publiknya sangat terputus dari praktik internal. Laporan ini dibagi menjadi empat tema utama: restrukturisasi, integritas CEO, transparansi dan keamanan, dan konflik kepentingan. Sejauh mana eksekutif dan anggota dewan OpenAI secara langsung atau tidak langsung mendapat manfaat dari kesuksesan perusahaan menjadi perhatian. Ini termasuk analisis portofolio CEO Altman yang melibatkan Retro Biosciences, Helion Energy, Reddit, Stripe, dan sejumlah perusahaan lain yang memiliki kemitraan dengan OpenAI. Restrukturisasi: "Pengkhianatan misi" yang rumit Laporan tersebut mencatat bahwa OpenAI secara sistematis dan terencana untuk membongkar pilar etis dan struktural inti dari pendiriannya, dan bahwa tindakannya sangat bertentangan dengan pernyataan publik, pada dasarnya pergeseran mendasar dari "untuk kebaikan kemanusiaan" menjadi "untuk keuntungan investor." Pertama, laporan tersebut mengungkapkan disintegrasi simultan dari dua pilar inti OpenAI—"batas keuntungan" dan "pengawasan nirlaba". Model "Capped-Profit" asli adalah filosofi intinya, yang dimaksudkan untuk memastikan bahwa kekayaan besar yang diciptakan oleh AGI dibagikan dengan seluruh umat manusia dan untuk mencegah konsentrasi kekayaan yang berlebihan. Namun, komitmen ini secara bertahap dilubangi: dari pengurangan kelipatan laba yang seolah-olah memperkuat misi, hingga pengenalan rahasia klausul "pertumbuhan otomatis 20% per tahun" yang membuatnya secara fungsional tidak berguna, hingga rencana akhir untuk sepenuhnya menghapus batas, menandai akhir dari gagasan pembagian kekayaan. Pada saat yang sama, mekanisme pengawasannya telah dilemahkan dengan cerdik. OpenAI berubah dari entitas yang sepenuhnya dikendalikan oleh organisasi nirlaba menjadi perusahaan kepentingan publik di Delaware. Kewajiban hukum telah berubah dari "prioritas misi" menjadi "menyeimbangkan kepentingan pemegang saham dan kepentingan publik". Laporan tersebut mencatat bahwa "tidak ada preseden dalam sejarah bagi pemegang saham untuk berhasil menuntut untuk melindungi kepentingan publik," membuat janji pro bono hampir tidak mungkin ditegakkan dalam praktik hukum. Ini menunjukkan bahwa komitmen PBC terhadap "kebaikan publik" dapat direduksi menjadi cangkang dalam kenyataan, memberikan perlindungan hukum yang besar untuk mengejar maksimalisasi keuntungan. Sumber gambar: situs web openaifiles.org/ Laporan tersebut lebih lanjut membantah retorika resmi OpenAI yang meninggalkan komitmennya dengan alasan bahwa "industri ini sangat kompetitif." Mengutip Anggaran Rumah Tangga awal perusahaan dan email internal, laporan tersebut membuktikan bahwa OpenAI mengantisipasi dan siap menghadapi persaingan industri yang ketat sejak awal. Oleh karena itu, menggunakan persaingan sebagai pembenaran untuk mengingkari janji adalah "sejarah revisionis" yang tidak dapat dipertahankan. Motivasi sebenarnya di balik ini justru bahwa investor dan eksekutif perusahaan percaya pada potensi keuntungannya yang besar, jadi sangat penting untuk menghapus batas tersebut. Integritas CEO: Pola Perilaku CEO Memicu Krisis Kepercayaan Laporan lebih lanjut mencatat bahwa CEO Altman memiliki pola ucapan dan tindakan yang tidak konsisten, manipulasi informasi dan penghindaran pengawasan, dan memprioritaskan kepentingan pribadi di atas tanggung jawab organisasi. Laporan tersebut mengutip beberapa contoh Altman secara terbuka berbohong atau menyesatkan pada isu-isu utama. Contoh: Pada masalah perjanjian non-penghinaan karyawan, Altman secara terbuka mengklaim tidak mengetahui klausul "perampasan ekuitas karyawan yang pergi", tetapi berkas tersebut menunjukkan bahwa dia secara eksplisit mengesahkan klausul tersebut. Dalam kesaksian Senat di bawah sumpah, dia mengklaim tidak memiliki kepentingan ekuitas di OpenAI, tetapi kemudian mengaku memegangnya secara tidak langsung melalui dana tersebut. Fakta bahwa dia secara pribadi memiliki dana startup OpenAI telah lama disembunyikan dari dewan. Helen Toner, mantan anggota dewan, secara langsung menuduh Altman menghalangi kinerja dewan dengan "menahan informasi, salah mengartikan fakta, dan bahkan berbohong langsung." Laporan tersebut juga menunjukkan bahwa pola perilaku ini terus berlanjut sepanjang karirnya: Selama waktunya di Loopt, karyawan senior dua kali mencoba membuat dewan memecatnya, dengan alasan perilaku "menipu dan kacau". Selama waktunya di Y Combinator, ia mengabaikan tugasnya dengan berfokus pada proyek pribadinya, dan akhirnya "diminta" oleh pendiri Paul Graham. Manifestasi yang paling dramatis adalah bahwa setelah dipecat dari dewan OpenAI, ia menggunakan pengaruhnya untuk membalikkan operasi, berhasil mencapai "serangan balik" dari sistem pengawasan dengan "menghapus anggota dewannya dan memasang sekutunya sendiri" sebagai syarat kembali. Risiko Operasional dan Keamanan: Kegagalan Sistemik Komitmen Keamanan Laporan tersebut mengungkapkan perbedaan sistemik antara kata-kata dan perbuatan OpenAI dalam hal keamanan dan transparansi, dengan keterputusan serius antara komitmen publik dan praktik internalnya. Budaya perusahaan menunjukkan kecenderungan untuk "hanya cepat tetapi tidak rusak", dan secara sistematis melemahkan, menghindari dan bahkan menghukum pengawasan dan perbedaan pendapat keselamatan internal untuk mengejar kepentingan bisnis dan keunggulan kompetitif. Laporan tersebut mengungkapkan inkonsistensi sistematis antara kata-kata dan perbuatan OpenAI dalam hal keamanan dan transparansi. Perusahaan berjanji untuk mencurahkan 20% dari sumber daya komputasinya untuk tim keamanan "super-aligned", tetapi menurut mantan kepala Jan Leike, sumber daya ini tidak pernah dialokasikan. Dalam pengembangan GPT-4o, tim keamanan diminta untuk "mempercepat pengujian" sebelum produk dirilis, dan perusahaan merencanakan perayaan rilis bahkan sebelum evaluasi dimulai. Lebih serius lagi, perusahaan mengancam karyawan yang pergi dengan perjanjian pesangon yang kejam yang akan merugikan perusahaan jutaan dolar dalam ekuitas jika dikritik. Karyawan Leopold Aschenbrenner dipecat karena mengajukan memo risiko keamanan nasional kepada dewan, dan perusahaan secara eksplisit memberitahunya bahwa alasan pemecatan itu adalah karena dia "melampaui dan melampaui" untuk melaporkan masalah keamanan. Laporan tersebut juga menunjukkan bahwa OpenAI memiliki insiden keamanan serius dari peretasan dan pencurian detail teknis AI pada tahun 2023, tetapi tidak melapor ke perusahaan hingga satu tahun.
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
OpenAI terungkap habis-habisan: teori konspirasi peralihan dari nirlaba ke laba.
OpenAI secara sistematis dan merencanakan pergeseran mendasar dari "untuk kesejahteraan umat manusia" menjadi "untuk keuntungan investor", CEO Altman memiliki pola jangka panjang yang terdokumentasi dengan baik dari kata-kata dan tindakan yang tidak konsisten, manipulasi informasi dan pengelakan pengawasan, dan pengikatan mendalam investasi pribadi dengan bisnis perusahaan. (Sinopsis: GPT-5 debut musim panas ini!) Sam Altman mengungkapkan cetak biru model generasi berikutnya OpenAI, ambisi StarGate, apakah akan ada iklan? (Latar belakang ditambahkan: Bom Kejut OpenAI!) Akuisisi desainer Apple legendaris Jony Ive io, Altman: "Perangkat keras AI paling fantastis" sedang dalam perjalanan) Laporan interaktif lebih dari 50 halaman dan lebih dari 10.000 kata mengungkapkan evolusi OpenAI dari laboratorium penelitian nirlaba menjadi raksasa nirlaba. Baru-baru ini, dua organisasi pengawas teknologi nirlaba, Midas Project dan Tech Oversight Project, merilis investigasi mendalam yang disebut OpenAI Archives. Laporan itu, yang dipimpin oleh Tyler Johnston, direktur eksekutif Proyek Midas, membutuhkan waktu hampir satu tahun untuk mengumpulkan informasi publik dan satu bulan penulisan intensif. Laporan tersebut menyebutnya "kompilasi paling komprehensif hingga saat ini dari kekhawatiran yang terdokumentasi tentang OpenAI dalam hal praktik tata kelola perusahaan, integritas kepemimpinan, dan budaya organisasi." Dengan menyisir sejumlah besar materi publik seperti file pengungkapan perusahaan, proses hukum, surat terbuka, dan laporan media, laporan interaktif lebih dari 10.000 kata menemukan bahwa OpenAI secara sistematis dan merencanakan pergeseran mendasar dari "untuk kesejahteraan umat manusia" menjadi "untuk keuntungan investor", dengan CEO Altman memiliki pola jangka panjang yang terdokumentasi dengan baik dari kata-kata dan tindakan yang tidak konsisten, manipulasi informasi dan penghindaran pengawasan, dan pengikatan mendalam investasi pribadi ke bisnis perusahaan. OpenAI bertentangan dalam hal keamanan dan transparansi, dan komitmen publiknya sangat terputus dari praktik internal. Laporan ini dibagi menjadi empat tema utama: restrukturisasi, integritas CEO, transparansi dan keamanan, dan konflik kepentingan. Sejauh mana eksekutif dan anggota dewan OpenAI secara langsung atau tidak langsung mendapat manfaat dari kesuksesan perusahaan menjadi perhatian. Ini termasuk analisis portofolio CEO Altman yang melibatkan Retro Biosciences, Helion Energy, Reddit, Stripe, dan sejumlah perusahaan lain yang memiliki kemitraan dengan OpenAI. Restrukturisasi: "Pengkhianatan misi" yang rumit Laporan tersebut mencatat bahwa OpenAI secara sistematis dan terencana untuk membongkar pilar etis dan struktural inti dari pendiriannya, dan bahwa tindakannya sangat bertentangan dengan pernyataan publik, pada dasarnya pergeseran mendasar dari "untuk kebaikan kemanusiaan" menjadi "untuk keuntungan investor." Pertama, laporan tersebut mengungkapkan disintegrasi simultan dari dua pilar inti OpenAI—"batas keuntungan" dan "pengawasan nirlaba". Model "Capped-Profit" asli adalah filosofi intinya, yang dimaksudkan untuk memastikan bahwa kekayaan besar yang diciptakan oleh AGI dibagikan dengan seluruh umat manusia dan untuk mencegah konsentrasi kekayaan yang berlebihan. Namun, komitmen ini secara bertahap dilubangi: dari pengurangan kelipatan laba yang seolah-olah memperkuat misi, hingga pengenalan rahasia klausul "pertumbuhan otomatis 20% per tahun" yang membuatnya secara fungsional tidak berguna, hingga rencana akhir untuk sepenuhnya menghapus batas, menandai akhir dari gagasan pembagian kekayaan. Pada saat yang sama, mekanisme pengawasannya telah dilemahkan dengan cerdik. OpenAI berubah dari entitas yang sepenuhnya dikendalikan oleh organisasi nirlaba menjadi perusahaan kepentingan publik di Delaware. Kewajiban hukum telah berubah dari "prioritas misi" menjadi "menyeimbangkan kepentingan pemegang saham dan kepentingan publik". Laporan tersebut mencatat bahwa "tidak ada preseden dalam sejarah bagi pemegang saham untuk berhasil menuntut untuk melindungi kepentingan publik," membuat janji pro bono hampir tidak mungkin ditegakkan dalam praktik hukum. Ini menunjukkan bahwa komitmen PBC terhadap "kebaikan publik" dapat direduksi menjadi cangkang dalam kenyataan, memberikan perlindungan hukum yang besar untuk mengejar maksimalisasi keuntungan. Sumber gambar: situs web openaifiles.org/ Laporan tersebut lebih lanjut membantah retorika resmi OpenAI yang meninggalkan komitmennya dengan alasan bahwa "industri ini sangat kompetitif." Mengutip Anggaran Rumah Tangga awal perusahaan dan email internal, laporan tersebut membuktikan bahwa OpenAI mengantisipasi dan siap menghadapi persaingan industri yang ketat sejak awal. Oleh karena itu, menggunakan persaingan sebagai pembenaran untuk mengingkari janji adalah "sejarah revisionis" yang tidak dapat dipertahankan. Motivasi sebenarnya di balik ini justru bahwa investor dan eksekutif perusahaan percaya pada potensi keuntungannya yang besar, jadi sangat penting untuk menghapus batas tersebut. Integritas CEO: Pola Perilaku CEO Memicu Krisis Kepercayaan Laporan lebih lanjut mencatat bahwa CEO Altman memiliki pola ucapan dan tindakan yang tidak konsisten, manipulasi informasi dan penghindaran pengawasan, dan memprioritaskan kepentingan pribadi di atas tanggung jawab organisasi. Laporan tersebut mengutip beberapa contoh Altman secara terbuka berbohong atau menyesatkan pada isu-isu utama. Contoh: Pada masalah perjanjian non-penghinaan karyawan, Altman secara terbuka mengklaim tidak mengetahui klausul "perampasan ekuitas karyawan yang pergi", tetapi berkas tersebut menunjukkan bahwa dia secara eksplisit mengesahkan klausul tersebut. Dalam kesaksian Senat di bawah sumpah, dia mengklaim tidak memiliki kepentingan ekuitas di OpenAI, tetapi kemudian mengaku memegangnya secara tidak langsung melalui dana tersebut. Fakta bahwa dia secara pribadi memiliki dana startup OpenAI telah lama disembunyikan dari dewan. Helen Toner, mantan anggota dewan, secara langsung menuduh Altman menghalangi kinerja dewan dengan "menahan informasi, salah mengartikan fakta, dan bahkan berbohong langsung." Laporan tersebut juga menunjukkan bahwa pola perilaku ini terus berlanjut sepanjang karirnya: Selama waktunya di Loopt, karyawan senior dua kali mencoba membuat dewan memecatnya, dengan alasan perilaku "menipu dan kacau". Selama waktunya di Y Combinator, ia mengabaikan tugasnya dengan berfokus pada proyek pribadinya, dan akhirnya "diminta" oleh pendiri Paul Graham. Manifestasi yang paling dramatis adalah bahwa setelah dipecat dari dewan OpenAI, ia menggunakan pengaruhnya untuk membalikkan operasi, berhasil mencapai "serangan balik" dari sistem pengawasan dengan "menghapus anggota dewannya dan memasang sekutunya sendiri" sebagai syarat kembali. Risiko Operasional dan Keamanan: Kegagalan Sistemik Komitmen Keamanan Laporan tersebut mengungkapkan perbedaan sistemik antara kata-kata dan perbuatan OpenAI dalam hal keamanan dan transparansi, dengan keterputusan serius antara komitmen publik dan praktik internalnya. Budaya perusahaan menunjukkan kecenderungan untuk "hanya cepat tetapi tidak rusak", dan secara sistematis melemahkan, menghindari dan bahkan menghukum pengawasan dan perbedaan pendapat keselamatan internal untuk mengejar kepentingan bisnis dan keunggulan kompetitif. Laporan tersebut mengungkapkan inkonsistensi sistematis antara kata-kata dan perbuatan OpenAI dalam hal keamanan dan transparansi. Perusahaan berjanji untuk mencurahkan 20% dari sumber daya komputasinya untuk tim keamanan "super-aligned", tetapi menurut mantan kepala Jan Leike, sumber daya ini tidak pernah dialokasikan. Dalam pengembangan GPT-4o, tim keamanan diminta untuk "mempercepat pengujian" sebelum produk dirilis, dan perusahaan merencanakan perayaan rilis bahkan sebelum evaluasi dimulai. Lebih serius lagi, perusahaan mengancam karyawan yang pergi dengan perjanjian pesangon yang kejam yang akan merugikan perusahaan jutaan dolar dalam ekuitas jika dikritik. Karyawan Leopold Aschenbrenner dipecat karena mengajukan memo risiko keamanan nasional kepada dewan, dan perusahaan secara eksplisit memberitahunya bahwa alasan pemecatan itu adalah karena dia "melampaui dan melampaui" untuk melaporkan masalah keamanan. Laporan tersebut juga menunjukkan bahwa OpenAI memiliki insiden keamanan serius dari peretasan dan pencurian detail teknis AI pada tahun 2023, tetapi tidak melapor ke perusahaan hingga satu tahun.