OpenAI'nın tüm sırları ortaya döküldü: Kar amacı gütmeyen bir kuruluşun kar amacı gütme yönünde bir komplo teorisi

OpenAI, "insanlığın refahı için"den "yatırımcıların kârı için"e temel bir geçişi sistematik ve önceden planlıyor, CEO Altman, tutarsız sözler ve eylemler, bilgilerin manipüle edilmesi ve gözetimin atlatılması ve kişisel yatırımların şirketin işlerine derinlemesine bağlanmasından oluşan uzun vadeli, iyi belgelenmiş bir modele sahip. (Özet: GPT-5 bu yaz çıkıyor!) Sam Altman, OpenAI'nin yeni nesil model planı StarGate hedeflerini açıklıyor, reklamlar olacak mı? (Arka plan eklendi: OpenAI Şok Bombası!) Efsanevi Apple tasarımcısı Jony Ive'ın satın alınması io, Altman: "En harika yapay zeka donanımı" yolda) 50 sayfadan ve 10.000'den fazla kelimeden oluşan etkileşimli bir rapor, OpenAI'nin kar amacı gütmeyen bir araştırma laboratuvarından kar amacı gütmeyen bir deve evrimini ortaya koyuyor. Son zamanlarda, iki kar amacı gütmeyen teknoloji izleme kuruluşu, Midas Projesi ve Teknoloji Gözetim Projesi, OpenAI Arşivleri adlı derinlemesine bir araştırma yayınladı. Midas Projesi'nin yönetici direktörü Tyler Johnston liderliğindeki rapor, yaklaşık bir yıl boyunca kamuoyunu bilgilendirmek ve bir ay yoğun bir yazı yazmak zorunda kaldı. Rapor, bunu "kurumsal yönetişim uygulamaları, liderlik bütünlüğü ve organizasyon kültürü açısından OpenAI ile ilgili belgelenmiş endişelerin bugüne kadarki en kapsamlı derlemesi" olarak adlandırıyor. 10.000'den fazla kelimeden oluşan etkileşimli rapor, şirket açıklama dosyaları, yasal işlemler, açık mektuplar ve medya raporları gibi çok sayıda kamuya açık materyali tarayarak, OpenAI'nin sistematik ve önceden "insanlığın refahı için"den "yatırımcıların kârı için"e temel bir geçiş yaptığını, CEO Altman'ın tutarsız sözler ve eylemler, bilgi manipülasyonu ve denetimden kaçınma ve kişisel yatırımların şirketin işlerine derin bir şekilde bağlanmasından oluşan uzun vadeli, iyi belgelenmiş bir modele sahip olduğunu buldu. OpenAI, güvenlik ve şeffaflık söz konusu olduğunda anlaşmazlık içindedir ve kamu taahhüdü, dahili uygulamalardan büyük ölçüde kopuktur. Rapor dört ana temaya ayrılmıştır: yeniden yapılandırma, CEO dürüstlüğü, şeffaflık ve güvenlik ve çıkar çatışması. OpenAI yöneticilerinin ve yönetim kurulu üyelerinin şirketin başarısından doğrudan veya dolaylı olarak ne ölçüde yararlandığı endişe vericidir. Bu, CEO Altman'ın Retro Biosciences, Helion Energy, Reddit, Stripe ve OpenAI ile ortaklığı olan bir dizi başka şirketi içeren portföyünün bir analizini içeriyor. Yeniden Yapılandırma: Ayrıntılı bir "misyona ihanet" Rapor, OpenAI'nin kuruluşunun temel etik ve yapısal sütunlarını ortadan kaldırmak için sistematik ve önceden tasarlandığını ve eylemlerinin kamuoyu açıklamalarıyla ciddi şekilde çeliştiğini, esasen "insanlığın iyiliği için"den "yatırımcıların kârı için"e temel bir geçiş olduğunu belirtiyor. İlk olarak, rapor, OpenAI'nin iki temel direği olan "kâr sınırları" ve "kâr amacı gütmeyen gözetim"in aynı anda dağıldığını ortaya koyuyor. Orijinal "Sınırlı Kâr" modeli, AGI tarafından yaratılan muazzam servetin tüm insanlıkla paylaşılmasını sağlamayı ve aşırı servet yoğunlaşmasını önlemeyi amaçlayan temel felsefesiydi. Bununla birlikte, bu taahhüdün içi yavaş yavaş boşaltıldı: görünüşte misyonu güçlendiren kâr katlarının azaltılmasından, onu işlevsel olarak işe yaramaz hale getiren "yılda %20'lik otomatik büyüme" maddesinin gizlice getirilmesine, servet paylaşımı fikrinin sonunu işaret eden üst sınırın tamamen kaldırılmasına yönelik nihai plana kadar. Aynı zamanda, gözetim mekanizmaları akıllıca zayıflatıldı. OpenAI, tamamen kar amacı gütmeyen bir kuruluş tarafından kontrol edilen bir kuruluştan Delaware'de kamu yararına çalışan bir kuruluşa dönüştü. Yasal yükümlülük "misyon önceliği"nden "hissedar çıkarları ile kamu yararını dengelemek" olarak değişmiştir. Raporda, "hissedarların kamu yararını korumak için başarılı bir şekilde dava açmaları için tarihte bir emsal bulunmadığı" ve pro bono vaatlerinin yasal uygulamada uygulanmasını neredeyse imkansız hale getirdiği belirtiliyor. Bu, PBC'nin "kamu yararına" olan bağlılığının gerçekte bir kabuğa indirgenebileceğini ve kâr maksimizasyonu arayışı için büyük bir yasal kılıf sağlayabileceğini göstermektedir. Resim kaynağı: openaifiles.org/ web sitesi Rapor, OpenAI'nin "endüstrinin oldukça rekabetçi olduğu" gerekçesiyle taahhüdünden vazgeçme yönündeki resmi söylemini daha da çürütüyor. Şirketin erken Tüzüğüne ve dahili e-postalarına atıfta bulunan rapor, OpenAI'nin başlangıcından itibaren yoğun endüstri rekabetini öngördüğünü ve bunlarla başa çıkmaya hazır olduğunu kanıtlıyor. Bu nedenle, rekabeti vaatlerden vazgeçmek için bir gerekçe olarak kullanmak, savunulamaz bir "revizyonist tarih"tir. Bunun arkasındaki gerçek motivasyon, tam da yatırımcıların ve şirket yöneticilerinin büyük kar potansiyeline inanmalarıdır, bu nedenle kapağı çıkarmak çok önemlidir. CEO Dürüstlüğü: CEO Davranış Kalıpları Güven Krizini Tetikliyor Rapor ayrıca, CEO Altman'ın uzun süredir devam eden, iyi belgelenmiş tutarsız konuşma ve eylem, bilgiyi manipüle etme ve gözetimden kaçınma ve kişisel çıkarların örgütsel sorumluluğa göre önceliklendirilmesi modeline sahip olduğunu belirtiyor. Rapor, Altman'ın önemli konularda açıkça yalan söylediğine veya yanıltıcı olduğuna dair birkaç örnek veriyor. Örnek: Çalışanların aşağılayıcı olmayan anlaşmaları konusunda, Altman kamuoyu önünde "ayrılan çalışanların öz sermayeden yoksun bırakılması" maddesinden habersiz olduğunu iddia etti, ancak dosya, bu maddeye açıkça izin verdiğini gösteriyor. Yeminli Senato ifadesinde, OpenAI'de hisse senedi çıkarı olmadığını iddia etti, ancak daha sonra bunu fon aracılığıyla dolaylı olarak elinde tuttuğunu itiraf etti. OpenAI başlangıç fonuna kişisel olarak sahip olduğu gerçeği uzun süredir yönetim kurulundan gizlendi. Eski bir yönetim kurulu üyesi olan Helen Toner, Altman'ı doğrudan "bilgi saklayarak, gerçekleri yanlış beyan ederek ve hatta düpedüz yalan söyleyerek" yönetim kurulunun performansını engellemekle suçladı. Rapor ayrıca, bu davranış modelinin kariyeri boyunca devam ettiğini de gösteriyor: Loopt'ta geçirdiği süre boyunca, kıdemli çalışanlar iki kez "aldatıcı ve kaotik" davranışları gerekçe göstererek yönetim kurulunun onu kovmasını sağlamaya çalıştı. Y Combinator'da çalıştığı süre boyunca, kişisel projelerine odaklanarak görevlerini ihmal etti ve sonunda kurucu Paul Graham tarafından "istendi". En dramatik tezahürü, OpenAI yönetim kurulundan kovulduktan sonra, operasyonu tersine çevirmek için nüfuzunu kullanması ve geri dönüş koşulu olarak "yönetim kurulu üyelerini görevden alarak ve kendi müttefiklerini kurarak" gözetim sisteminin "geri tepmesini" başarılı bir şekilde başarmasıdır. Operasyonel ve Güvenlik Riskleri: Güvenlik Taahhütlerinin Sistemik Başarısızlığı Rapor, güvenlik ve şeffaflık söz konusu olduğunda OpenAI'nin sözleri ve eylemleri arasında sistemik bir tutarsızlık olduğunu ve kamuya açık taahhütleri ile iç uygulamaları arasında ciddi bir kopukluk olduğunu ortaya koyuyor. Şirket kültürü, "sadece hızlı ama bozuk değil" eğilimi gösteriyor ve ticari çıkarlar ve rekabet avantajları elde etmek için iç güvenlik gözetimini ve muhalefetini sistematik olarak zayıflatıyor, atlatıyor ve hatta cezalandırıyor. Rapor, güvenlik ve şeffaflık söz konusu olduğunda OpenAI'nin sözleri ve eylemleri arasında sistematik bir tutarsızlık olduğunu ortaya koyuyor. Şirket, bilgi işlem kaynaklarının% 20'sini "süper uyumlu" güvenlik ekibine ayırma sözü verdi, ancak eski başkan Jan Leike'ye göre bu kaynak hiçbir zaman tahsis edilmedi. GPT-4o geliştirmesinde, güvenlik ekibinden ürün piyasaya sürülmeden önce testi "hızlı bir şekilde izlemesi" istendi ve şirket, değerlendirme başlamadan önce bile sürüm kutlamasını planladı. Daha da ciddi olarak, şirket, ayrılan çalışanlarını, eleştirildiği takdirde şirkete milyonlarca dolarlık öz sermayeye mal olacak acımasız kıdem tazminatı anlaşmalarıyla tehdit ediyor. Çalışan Leopold Aschenbrenner, yönetim kuruluna bir ulusal güvenlik risk notu doldurduğu için kovuldu ve şirket, işten çıkarmanın nedeninin güvenlik sorunlarını bildirmek için "yukarıda ve öteye gitmesi" olduğunu açıkça bildirdi. Raporda ayrıca OpenAI'nin 2023'te yapay zeka teknik detaylarının hacklenmesi ve çalınması gibi ciddi bir güvenlik olayı yaşadığına dikkat çekildi, ancak bir yıla kadar şirkete rapor vermedi.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)