OpenAI a été exposé au grand jour : la théorie du complot sur sa transition de l'organisation à but non lucratif à l'organisation à but lucratif.

OpenAI est systématiquement et préméditant un changement fondamental de « pour le bien-être de l’humanité » à « pour le profit des investisseurs », le PDG Altman a un modèle à long terme et bien documenté de paroles et d’actions incohérentes, de manipulation de l’information et de contournement de la surveillance, et le lien profond des investissements personnels avec les activités de l’entreprise. (Synopsis : GPT-5 fait ses débuts cet été !) Sam Altman révèle le modèle de nouvelle génération d’OpenAI, StarGate ambitions, y aura-t-il des publicités ? (Arrière-plan ajouté : Bombe de choc OpenAI !) Acquisition du légendaire designer Apple Jony Ive io, Altman : « Le matériel d’IA le plus fantastique » est en route) Un rapport interactif de plus de 50 pages et plus de 10 000 mots révèle l’évolution d’OpenAI, qui est passé d’un laboratoire de recherche à but non lucratif à un géant à but lucratif. Récemment, deux organisations à but non lucratif de surveillance de la technologie, le Midas Project et le Tech Oversight Project, ont publié une enquête approfondie appelée OpenAI Archives. Le rapport, dirigé par Tyler Johnston, directeur exécutif du Projet Midas, a nécessité près d’un an de collecte d’informations publiques et un mois de rédaction intensive. Le rapport le qualifie de « compilation la plus complète à ce jour des préoccupations documentées concernant OpenAI en termes de pratiques de gouvernance d’entreprise, d’intégrité du leadership et de culture organisationnelle ». En passant au peigne fin un grand nombre de documents publics tels que des dossiers de divulgation d’entreprises, des procédures judiciaires, des lettres ouvertes et des rapports médiatiques, le rapport interactif de plus de 10 000 mots a révélé qu’OpenAI est systématiquement et préméditée un changement fondamental de « pour le bien-être de l’humanité » à « pour le profit des investisseurs », le PDG Altman ayant un modèle à long terme et bien documenté de paroles et d’actions incohérentes, de manipulation de l’information et d’évasion de la supervision, et le lien profond des investissements personnels avec les activités de l’entreprise. OpenAI est en désaccord en matière de sécurité et de transparence, et son engagement public est grossièrement déconnecté des pratiques internes. Le rapport est divisé en quatre thèmes principaux : la restructuration, l’intégrité du PDG, la transparence et la sécurité, et les conflits d’intérêts. La mesure dans laquelle les dirigeants et les membres du conseil d’administration d’OpenAI ont bénéficié directement ou indirectement du succès de l’entreprise est préoccupante. Cela comprend une analyse du portefeuille du PDG Altman impliquant Retro Biosciences, Helion Energy, Reddit, Stripe et un certain nombre d’autres entreprises qui ont des partenariats avec OpenAI. Le rapport note qu’OpenAI est systématiquement et préméditée pour démanteler les piliers éthiques et structurels fondamentaux de sa fondation, et que ses actions sont sérieusement en contradiction avec les déclarations publiques, essentiellement un changement fondamental de « pour le bien de l’humanité » à « pour le profit des investisseurs ». Tout d’abord, le rapport révèle la désintégration simultanée des deux piliers fondamentaux d’OpenAI : les « plafonds de bénéfices » et la « surveillance des organisations à but non lucratif ». Le modèle original du « Capped-Profit » était sa philosophie de base, qui visait à garantir que l’énorme richesse créée par l’AGI soit partagée avec l’ensemble de l’humanité et à empêcher une concentration excessive de la richesse. Cependant, cet engagement a été progressivement vidé de sa substance : de la réduction des multiples de bénéfices qui renforcent ostensiblement la mission, à l’introduction secrète d’une clause de « croissance automatique de 20 % par an » qui la rend fonctionnellement inutile, jusqu’au plan final de suppression complète du plafond, marquant la fin de l’idée de partage des richesses. Dans le même temps, ses mécanismes de contrôle ont été habilement affaiblis. OpenAI est passée d’une entité entièrement contrôlée par une organisation à but non lucratif à une société d’intérêt public dans le Delaware. L’obligation légale est passée de la « priorité de la mission » à celle de « l’équilibre entre les intérêts des actionnaires et l’intérêt public ». Le rapport note qu'« il n’y a aucun précédent dans l’histoire pour que les actionnaires puissent intenter avec succès des poursuites pour protéger l’intérêt public », ce qui rend les promesses pro bono pratiquement impossibles à appliquer dans la pratique juridique. Cela suggère que l’engagement de la PBC envers le « bien public » pourrait être réduit à une coquille vide dans la réalité, fournissant une énorme couverture juridique pour la poursuite de la maximisation des profits. Source de l’image : site Web openaifiles.org/ Le rapport réfute en outre la rhétorique officielle d’OpenAI consistant à abandonner son engagement au motif que « l’industrie est très compétitive ». Citant les premiers statuts de l’entreprise et des courriels internes, le rapport prouve qu’OpenAI a anticipé et était prêt à faire face à une concurrence intense de l’industrie dès sa création. Par conséquent, utiliser la concurrence comme justification pour revenir sur ses promesses est une « histoire révisionniste » intenable. La véritable motivation derrière cela est précisément que les investisseurs et les dirigeants de l’entreprise croient en son énorme potentiel de profit, il est donc crucial de supprimer le plafond. Le rapport note en outre que le PDG Altman a un modèle de longue date et bien documenté de discours et d’actions incohérents, de manipulation de l’information et d’évasion de la surveillance, et de priorité aux intérêts personnels sur la responsabilité organisationnelle. Le rapport cite plusieurs exemples d’Altman qui mentent ouvertement ou induisent en erreur sur des questions majeures. Exemple : Sur la question des accords non dérogatoires pour les employés, Altman a publiquement affirmé qu’il n’était pas au courant de la clause de « privation d’équité des employés qui partent », mais le dossier montre qu’il a explicitement autorisé la clause. Lors d’un témoignage sous serment devant le Sénat, il a affirmé ne pas avoir de participation dans OpenAI, mais a admis plus tard la détenir indirectement par le biais du fonds. Le fait qu’il possède personnellement le fonds de démarrage OpenAI a longtemps été caché au conseil d’administration. Helen Toner, une ancienne membre du conseil d’administration, a directement accusé Altman d’entraver la performance du conseil en « retenant des informations, en déformant les faits et même en mentant carrément ». Le rapport montre également que ce modèle de comportement s’est poursuivi tout au long de sa carrière : pendant son séjour chez Loopt, des employés seniors ont tenté à deux reprises d’obtenir du conseil d’administration qu’il le licencie, citant un comportement « trompeur et chaotique ». Pendant son séjour chez Y Combinator, il a négligé ses devoirs en se concentrant sur ses projets personnels, et a finalement été « sollicité » par le fondateur Paul Graham. La manifestation la plus dramatique est qu’après avoir été licencié du conseil d’administration d’OpenAI, il a utilisé son influence pour inverser l’opération, réussissant à obtenir un « retour de bâton » du système de surveillance en « destituant ses membres du conseil d’administration et en installant ses propres alliés » comme condition de retour. Risques opérationnels et de sécurité : échec systémique des engagements de sécurité Le rapport révèle un décalage systémique entre les paroles et les actes d’OpenAI en matière de sécurité et de transparence, avec un grave décalage entre ses engagements publics et ses pratiques internes. La culture d’entreprise montre une tendance à « seulement jeûner mais pas casser », et affaiblit, contourne et même punit systématiquement la surveillance et la dissidence internes en matière de sécurité afin de poursuivre des intérêts commerciaux et des avantages concurrentiels. Le rapport révèle une incohérence systématique entre les paroles et les actes d’OpenAI en matière de sécurité et de transparence. L’entreprise a promis de consacrer 20 % de ses ressources informatiques à l’équipe de sécurité « super-alignée », mais selon l’ancien chef Jan Leike, cette ressource n’a jamais été allouée. Lors du développement de GPT-4o, l’équipe de sécurité a été chargée d’accélérer les tests avant la sortie du produit, et l’entreprise a planifié la célébration de la sortie avant même le début de l’évaluation. Plus sérieusement, l’entreprise menace les employés qui partent avec des accords de licenciement draconiens qui lui coûteront des millions de dollars en capitaux propres s’ils sont critiqués. L’employé Leopold Aschenbrenner a été licencié pour avoir déposé une note de service sur les risques pour la sécurité nationale auprès du conseil d’administration, et l’entreprise l’a explicitement informé que la raison de son licenciement était qu’il était « allé au-delà » pour signaler des problèmes de sécurité. Le rapport a également souligné qu’OpenAI a connu un grave incident de sécurité de piratage et de vol de détails techniques de l’IA en 2023, mais qu’il n’a pas signalé à l’entreprise pendant un an.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)