OpenAI fue expuesto por completo: la teoría de la conspiración de la transición de una organización sin fines de lucro a una con fines de lucro.

OpenAI está sistemáticamente y premeditando un cambio fundamental de "para el bienestar de la humanidad" a "para el beneficio de los inversores", el CEO Altman tiene un patrón a largo plazo y bien documentado de palabras y acciones inconsistentes, manipulación de la información y elusión de la supervisión, y la profunda vinculación de las inversiones personales al negocio de la empresa. (Sinopsis: ¡GPT-5 debuta este verano!) Sam Altman revela el modelo de próxima generación de OpenAI, StarGate ambiciones, ¿habrá anuncios? (Antecedentes: ¡Bomba de choque de OpenAI!) Adquisición del legendario diseñador de Apple Jony Ive io, Altman: "El hardware de IA más fantástico" está en camino) Un informe interactivo de más de 50 páginas y más de 10.000 palabras revela la evolución de OpenAI de un laboratorio de investigación sin fines de lucro a un gigante con fines de lucro. Recientemente, dos organizaciones de vigilancia tecnológica sin fines de lucro, el Proyecto Midas y el Proyecto de Supervisión Tecnológica, publicaron una investigación en profundidad llamada OpenAI Archives. El informe, dirigido por Tyler Johnston, director ejecutivo del Proyecto Midas, tomó casi un año de recopilación de información pública y un mes de redacción intensiva. El informe lo llama "la compilación más completa hasta la fecha de preocupaciones documentadas sobre OpenAI en términos de prácticas de gobierno corporativo, integridad del liderazgo y cultura organizacional". Al revisar una gran cantidad de materiales públicos, como archivos de divulgación de la empresa, procedimientos legales, cartas abiertas e informes de los medios de comunicación, el informe interactivo de más de 10.000 palabras encontró que OpenAI está provocando sistemática y premeditadamente un cambio fundamental de "para el bienestar de la humanidad" a "para el beneficio de los inversores", con el CEO Altman teniendo un patrón a largo plazo y bien documentado de palabras y acciones inconsistentes, manipulación de la información y evasión de la supervisión, y la profunda vinculación de las inversiones personales al negocio de la empresa. OpenAI está en desacuerdo en lo que respecta a la seguridad y la transparencia, y su compromiso público está muy desconectado de las prácticas internas. El informe se divide en cuatro temas principales: reestructuración, integridad del CEO, transparencia y seguridad, y conflicto de intereses. Es preocupante hasta qué punto los ejecutivos y miembros de la junta directiva de OpenAI se han beneficiado directa o indirectamente del éxito de la empresa. Esto incluye un análisis de la cartera del CEO Altman que involucra a Retro Biosciences, Helion Energy, Reddit, Stripe y una serie de otras empresas que tienen asociaciones con OpenAI. Reestructuración: Una elaborada "traición a la misión" El informe señala que OpenAI está sistemática y premeditada para desmantelar los pilares éticos y estructurales básicos de su fundación, y que sus acciones están seriamente en desacuerdo con los pronunciamientos públicos, esencialmente un cambio fundamental de "por el bien de la humanidad" a "por el beneficio de los inversores". En primer lugar, el informe revela la desintegración simultánea de los dos pilares fundamentales de OpenAI: los "límites de beneficios" y la "supervisión de las organizaciones sin ánimo de lucro". El modelo original de "Beneficio Limitado" era su filosofía central, que tenía como objetivo garantizar que la enorme riqueza creada por AGI se compartiera con toda la humanidad y evitar la concentración excesiva de la riqueza. Sin embargo, este compromiso se ha ido vaciando poco a poco: desde la reducción de los múltiplos de beneficios que refuerzan ostensiblemente la misión, pasando por la introducción secreta de una cláusula de "crecimiento automático del 20% anual" que la hace funcionalmente inútil, hasta el plan final para eliminar por completo el tope, marcando el fin de la idea de reparto de la riqueza. Al mismo tiempo, sus mecanismos de supervisión se han debilitado hábilmente. OpenAI pasó de ser una entidad totalmente controlada por una organización sin fines de lucro a una corporación de beneficio público en Delaware. La obligación legal ha pasado de "prioridad de misión" a "equilibrar los intereses de los accionistas y el interés público". El informe señala que "no hay precedentes en la historia de que los accionistas demanden con éxito para proteger el interés público", lo que hace que las promesas pro bono sean prácticamente imposibles de hacer cumplir en la práctica legal. Esto sugiere que el compromiso del PBC con el "bien público" puede reducirse a una cáscara en la realidad, proporcionando una enorme cobertura legal para la búsqueda de la maximización de las ganancias. Fuente de la imagen: sitio web openaifiles.org/ El informe refuta aún más la retórica oficial de OpenAI de abandonar su compromiso con el argumento de que "la industria es altamente competitiva". Citando los primeros estatutos de la empresa y correos electrónicos internos, el informe demuestra que OpenAI anticipó y estaba preparada para hacer frente a la intensa competencia de la industria desde sus inicios. Por lo tanto, utilizar la competencia como justificación para incumplir las promesas es una "historia revisionista" insostenible. La verdadera motivación detrás de esto es precisamente que los inversores y ejecutivos de la empresa creen en su enorme potencial de ganancias, por lo que es crucial eliminar el límite. Integridad del CEO: Los patrones de comportamiento del CEO desencadenan una crisis de confianza El informe señala además que el CEO Altman tiene un patrón de larga data y bien documentado de discurso y acción inconsistentes, manipulación de la información y evasión de la supervisión, y priorización de los intereses personales sobre la responsabilidad organizacional. El informe cita varios ejemplos de Altman mintiendo abiertamente o engañando sobre temas importantes. Ejemplo: Sobre el tema de los acuerdos no derogatorios de los empleados, Altman afirmó públicamente que no estaba al tanto de la cláusula de "privación de equidad de los empleados que se van", pero el expediente muestra que autorizó explícitamente la cláusula. En un testimonio bajo juramento ante el Senado, afirmó no tener una participación accionaria en OpenAI, pero más tarde admitió haberla poseído indirectamente a través del fondo. El hecho de que él personalmente posea el fondo de inicio OpenAI se ha ocultado durante mucho tiempo a la junta. Helen Toner, ex miembro de la junta, acusó directamente a Altman de obstruir el desempeño de la junta al "retener información, tergiversar hechos e incluso mentir descaradamente". El informe también muestra que este patrón de comportamiento ha continuado a lo largo de su carrera: durante su tiempo en Loopt, los empleados senior intentaron dos veces que la junta lo despidiera, citando un comportamiento "engañoso y caótico". Durante su tiempo en Y Combinator, descuidó sus deberes al concentrarse en sus proyectos personales, y finalmente fue "rechazado" por el fundador Paul Graham. La manifestación más dramática es que después de ser despedido de la junta directiva de OpenAI, utilizó su influencia para revertir la operación, logrando con éxito una "reacción violenta" del sistema de supervisión al "eliminar a los miembros de su junta e instalar a sus propios aliados" como condición de regreso. Riesgos operativos y de seguridad: fracaso sistémico de los compromisos de seguridad El informe revela una discrepancia sistémica entre las palabras y los hechos de OpenAI en lo que respecta a la seguridad y la transparencia, con una grave desconexión entre sus compromisos públicos y las prácticas internas. La cultura de la empresa muestra una tendencia a "solo ayunar pero no romper", y está debilitando, eludiendo e incluso castigando sistemáticamente la supervisión interna de la seguridad y la disidencia con el fin de perseguir intereses comerciales y ventajas competitivas. El informe revela una inconsistencia sistemática entre las palabras y los hechos de OpenAI en lo que respecta a la seguridad y la transparencia. La compañía prometió dedicar el 20% de sus recursos informáticos al equipo de seguridad "superalineado", pero según el ex jefe Jan Leike, este recurso nunca se asignó. En el desarrollo de GPT-4o, se pidió al equipo de seguridad que "acelerara" las pruebas antes de que se lanzara el producto, y la empresa planificó la celebración del lanzamiento incluso antes de que comenzara la evaluación. Más grave aún, la compañía amenaza a los empleados que se van con acuerdos de indemnización draconianos que le costarán a la compañía millones de dólares en capital si son criticados. El empleado Leopold Aschenbrenner fue despedido por presentar un memorándum de riesgo de seguridad nacional ante la junta, y la empresa le informó explícitamente que la razón del despido era que "hizo todo lo posible" para informar sobre problemas de seguridad. El informe también señaló que OpenAI tuvo un grave incidente de seguridad de piratería y robo de detalles técnicos de IA en 2023, pero no informó a la empresa hasta un año.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)