A OpenAI está sistemática e premeditando uma mudança fundamental de "para o bem-estar da humanidade" para "para o lucro dos investidores", o CEO Altman tem um padrão de longo prazo e bem documentado de palavras e ações inconsistentes, manipulação de informações e evasão da supervisão, e a profunda vinculação de investimentos pessoais aos negócios da empresa. (Sinopse: GPT-5 estreia este verão!) Sam Altman revela o modelo de próxima geração da OpenAI, as ambições StarGate, haverá anúncios? (Fundo adicionado: OpenAI Shock Bomb!) Aquisição do lendário designer da Apple Jony Ive io, Altman: "O hardware de IA mais fantástico" está a caminho) Um relatório interativo de mais de 50 páginas e mais de 10.000 palavras revela a evolução da OpenAI de um laboratório de pesquisa sem fins lucrativos para um gigante com fins lucrativos. Recentemente, duas organizações de vigilância de tecnologia sem fins lucrativos, o Projeto Midas e o Projeto de Supervisão Tecnológica, lançaram uma investigação aprofundada chamada OpenAI Archives. O relatório, liderado por Tyler Johnston, diretor executivo do Projeto Midas, levou quase um ano de coleta de informações públicas e um mês de escrita intensiva. O relatório chama-lhe "a compilação mais abrangente até à data de preocupações documentadas sobre a OpenAI em termos de práticas de governação corporativa, integridade da liderança e cultura organizacional". Ao vasculhar um grande número de materiais públicos, como arquivos de divulgação da empresa, processos judiciais, cartas abertas e relatórios da mídia, o relatório interativo de mais de 10.000 palavras descobriu que a OpenAI está sistemática e premeditando uma mudança fundamental de "para o bem-estar da humanidade" para "para o lucro dos investidores", com o CEO Altman tendo um padrão de longo prazo e bem documentado de palavras e ações inconsistentes, manipulação de informações e evasão de supervisão, e a profunda vinculação de investimentos pessoais aos negócios da empresa. A OpenAI está em desacordo quando se trata de segurança e transparência, e seu compromisso público está grosseiramente desconectado das práticas internas. O relatório está dividido em quatro temas principais: reestruturação, integridade do CEO, transparência e segurança e conflito de interesses. A medida em que os executivos e membros do conselho da OpenAI se beneficiaram direta ou indiretamente do sucesso da empresa é preocupante. Isso inclui uma análise do portfólio do CEO Altman envolvendo Retro Biosciences, Helion Energy, Reddit, Stripe e várias outras empresas que têm parcerias com a OpenAI. Reestruturação: Uma elaborada "traição à missão" O relatório observa que a OpenAI é sistemática e premeditada para desmantelar os pilares éticos e estruturais fundamentais de sua fundação, e que suas ações estão seriamente em desacordo com os pronunciamentos públicos, essencialmente uma mudança fundamental de "para o bem da humanidade" para "para o lucro dos investidores". Primeiro, o relatório revela a desintegração simultânea dos dois pilares centrais da OpenAI: "limites de lucro" e "supervisão sem fins lucrativos". O modelo original de "Capped-Profit" era a sua filosofia central, que visava garantir que a enorme riqueza criada pela AGI fosse partilhada com toda a humanidade e evitar a concentração excessiva de riqueza. No entanto, este compromisso foi-se esvaziando gradualmente: desde a redução dos múltiplos de lucro que ostensivamente reforçam a missão, à introdução secreta de uma cláusula de "crescimento automático de 20% ao ano" que a torna funcionalmente inútil, até ao plano final de eliminação total do limite máximo, marcando o fim da ideia de partilha de riqueza. Ao mesmo tempo, os seus mecanismos de supervisão foram inteligentemente enfraquecidos. A OpenAI se transformou de uma entidade totalmente controlada por uma organização sem fins lucrativos para uma corporação de benefício público em Delaware. A obrigação jurídica passou de «prioridade da missão» para «equilíbrio entre os interesses dos acionistas e o interesse público». O relatório observa que "não há precedente na história para os acionistas processarem com sucesso para proteger o interesse público", tornando as promessas pro bono virtualmente impossíveis de serem cumpridas na prática legal. Isso sugere que o compromisso do PBC com o "bem público" pode ser reduzido a uma concha na realidade, fornecendo uma enorme cobertura legal para a busca da maximização do lucro. Fonte da imagem: openaifiles.org/ site O relatório refuta ainda mais a retórica oficial da OpenAI de abandonar seu compromisso com o argumento de que "a indústria é altamente competitiva". Citando os primeiros estatutos da empresa e e-mails internos, o relatório prova que a OpenAI se antecipou e estava preparada para lidar com a intensa concorrência da indústria desde o seu início. Portanto, usar a concorrência como justificação para renegar promessas é uma "história revisionista" insustentável. A verdadeira motivação por trás disso é justamente que os investidores e executivos da empresa acreditam em seu enorme potencial de lucro, por isso é crucial remover o limite. Integridade do CEO: Padrões de comportamento do CEO desencadeiam uma crise de confiança O relatório observa ainda que o CEO Altman tem um padrão de longa data e bem documentado de discurso e ação inconsistentes, manipulação de informações e evasão da supervisão, e priorização de interesses pessoais sobre a responsabilidade organizacional. O relatório cita vários exemplos de Altman abertamente mentiroso ou enganoso sobre questões importantes. Exemplo: Sobre a questão dos acordos não depreciativos dos empregados, Altman alegou publicamente desconhecer a cláusula de "privação de equidade dos empregados demitidos", mas o dossiê mostra que ele autorizou explicitamente a cláusula. Em depoimento no Senado sob juramento, ele alegou não ter uma participação acionária na OpenAI, mas mais tarde admitiu detê-la indiretamente através do fundo. O fato de ele ser pessoalmente dono do fundo de startups OpenAI há muito tempo está escondido do conselho. Helen Toner, ex-membro do conselho, acusou diretamente Altman de obstruir o desempenho do conselho ao "ocultar informações, deturpar fatos e até mesmo mentir descaradamente". O relatório também mostra que esse padrão de comportamento continuou ao longo de sua carreira: durante seu tempo na Loopt, funcionários seniores tentaram duas vezes fazer com que a diretoria o demitisse, citando um comportamento "enganoso e caótico". Durante seu tempo na Y Combinator, ele negligenciou seus deveres, concentrando-se em seus projetos pessoais, e acabou sendo "afastado" pelo fundador Paul Graham. A manifestação mais dramática é que, depois de ser demitido do conselho da OpenAI, ele usou sua influência para reverter a operação, conseguindo com sucesso uma "reação negativa" do sistema de supervisão, "removendo seus membros do conselho e instalando seus próprios aliados" como condição de retorno. Riscos Operacionais e de Segurança: Falha Sistémica dos Compromissos de Segurança O relatório revela uma discrepância sistémica entre as palavras e os atos da OpenAI quando se trata de segurança e transparência, com uma grave desconexão entre os seus compromissos públicos e as práticas internas. A cultura da empresa mostra uma tendência para "apenas rápido, mas não quebrado", e está sistematicamente enfraquecendo, contornando e até mesmo punindo a supervisão de segurança interna e a dissidência, a fim de perseguir interesses comerciais e vantagens competitivas. O relatório revela uma inconsistência sistemática entre as palavras e os atos da OpenAI quando se trata de segurança e transparência. A empresa prometeu dedicar 20% de seus recursos de computação à equipe de segurança "superalinhada", mas, de acordo com o ex-chefe jan Leike, esse recurso nunca foi alocado. No desenvolvimento do GPT-4o, a equipe de segurança foi solicitada a "acelerar" os testes antes do lançamento do produto, e a empresa planejou a celebração do lançamento antes mesmo do início da avaliação. Mais grave, a empresa ameaça os funcionários que saem com acordos draconianos de demissão que custarão milhões de dólares em capital próprio se for criticada. O funcionário Leopold Aschenbrenner foi demitido por apresentar um memorando de risco à segurança nacional no conselho, e a empresa o informou explicitamente que o motivo da demissão era que ele "foi além" para relatar problemas de segurança. O relatório também apontou que a OpenAI teve um grave incidente de segurança de hacking e roubo de detalhes técnicos de IA em 2023, mas não reportou à empresa por até um ano.
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
OpenAI foi exposta de forma abrangente: a teoria da conspiração da transição de sem fins lucrativos para fins lucrativos
A OpenAI está sistemática e premeditando uma mudança fundamental de "para o bem-estar da humanidade" para "para o lucro dos investidores", o CEO Altman tem um padrão de longo prazo e bem documentado de palavras e ações inconsistentes, manipulação de informações e evasão da supervisão, e a profunda vinculação de investimentos pessoais aos negócios da empresa. (Sinopse: GPT-5 estreia este verão!) Sam Altman revela o modelo de próxima geração da OpenAI, as ambições StarGate, haverá anúncios? (Fundo adicionado: OpenAI Shock Bomb!) Aquisição do lendário designer da Apple Jony Ive io, Altman: "O hardware de IA mais fantástico" está a caminho) Um relatório interativo de mais de 50 páginas e mais de 10.000 palavras revela a evolução da OpenAI de um laboratório de pesquisa sem fins lucrativos para um gigante com fins lucrativos. Recentemente, duas organizações de vigilância de tecnologia sem fins lucrativos, o Projeto Midas e o Projeto de Supervisão Tecnológica, lançaram uma investigação aprofundada chamada OpenAI Archives. O relatório, liderado por Tyler Johnston, diretor executivo do Projeto Midas, levou quase um ano de coleta de informações públicas e um mês de escrita intensiva. O relatório chama-lhe "a compilação mais abrangente até à data de preocupações documentadas sobre a OpenAI em termos de práticas de governação corporativa, integridade da liderança e cultura organizacional". Ao vasculhar um grande número de materiais públicos, como arquivos de divulgação da empresa, processos judiciais, cartas abertas e relatórios da mídia, o relatório interativo de mais de 10.000 palavras descobriu que a OpenAI está sistemática e premeditando uma mudança fundamental de "para o bem-estar da humanidade" para "para o lucro dos investidores", com o CEO Altman tendo um padrão de longo prazo e bem documentado de palavras e ações inconsistentes, manipulação de informações e evasão de supervisão, e a profunda vinculação de investimentos pessoais aos negócios da empresa. A OpenAI está em desacordo quando se trata de segurança e transparência, e seu compromisso público está grosseiramente desconectado das práticas internas. O relatório está dividido em quatro temas principais: reestruturação, integridade do CEO, transparência e segurança e conflito de interesses. A medida em que os executivos e membros do conselho da OpenAI se beneficiaram direta ou indiretamente do sucesso da empresa é preocupante. Isso inclui uma análise do portfólio do CEO Altman envolvendo Retro Biosciences, Helion Energy, Reddit, Stripe e várias outras empresas que têm parcerias com a OpenAI. Reestruturação: Uma elaborada "traição à missão" O relatório observa que a OpenAI é sistemática e premeditada para desmantelar os pilares éticos e estruturais fundamentais de sua fundação, e que suas ações estão seriamente em desacordo com os pronunciamentos públicos, essencialmente uma mudança fundamental de "para o bem da humanidade" para "para o lucro dos investidores". Primeiro, o relatório revela a desintegração simultânea dos dois pilares centrais da OpenAI: "limites de lucro" e "supervisão sem fins lucrativos". O modelo original de "Capped-Profit" era a sua filosofia central, que visava garantir que a enorme riqueza criada pela AGI fosse partilhada com toda a humanidade e evitar a concentração excessiva de riqueza. No entanto, este compromisso foi-se esvaziando gradualmente: desde a redução dos múltiplos de lucro que ostensivamente reforçam a missão, à introdução secreta de uma cláusula de "crescimento automático de 20% ao ano" que a torna funcionalmente inútil, até ao plano final de eliminação total do limite máximo, marcando o fim da ideia de partilha de riqueza. Ao mesmo tempo, os seus mecanismos de supervisão foram inteligentemente enfraquecidos. A OpenAI se transformou de uma entidade totalmente controlada por uma organização sem fins lucrativos para uma corporação de benefício público em Delaware. A obrigação jurídica passou de «prioridade da missão» para «equilíbrio entre os interesses dos acionistas e o interesse público». O relatório observa que "não há precedente na história para os acionistas processarem com sucesso para proteger o interesse público", tornando as promessas pro bono virtualmente impossíveis de serem cumpridas na prática legal. Isso sugere que o compromisso do PBC com o "bem público" pode ser reduzido a uma concha na realidade, fornecendo uma enorme cobertura legal para a busca da maximização do lucro. Fonte da imagem: openaifiles.org/ site O relatório refuta ainda mais a retórica oficial da OpenAI de abandonar seu compromisso com o argumento de que "a indústria é altamente competitiva". Citando os primeiros estatutos da empresa e e-mails internos, o relatório prova que a OpenAI se antecipou e estava preparada para lidar com a intensa concorrência da indústria desde o seu início. Portanto, usar a concorrência como justificação para renegar promessas é uma "história revisionista" insustentável. A verdadeira motivação por trás disso é justamente que os investidores e executivos da empresa acreditam em seu enorme potencial de lucro, por isso é crucial remover o limite. Integridade do CEO: Padrões de comportamento do CEO desencadeiam uma crise de confiança O relatório observa ainda que o CEO Altman tem um padrão de longa data e bem documentado de discurso e ação inconsistentes, manipulação de informações e evasão da supervisão, e priorização de interesses pessoais sobre a responsabilidade organizacional. O relatório cita vários exemplos de Altman abertamente mentiroso ou enganoso sobre questões importantes. Exemplo: Sobre a questão dos acordos não depreciativos dos empregados, Altman alegou publicamente desconhecer a cláusula de "privação de equidade dos empregados demitidos", mas o dossiê mostra que ele autorizou explicitamente a cláusula. Em depoimento no Senado sob juramento, ele alegou não ter uma participação acionária na OpenAI, mas mais tarde admitiu detê-la indiretamente através do fundo. O fato de ele ser pessoalmente dono do fundo de startups OpenAI há muito tempo está escondido do conselho. Helen Toner, ex-membro do conselho, acusou diretamente Altman de obstruir o desempenho do conselho ao "ocultar informações, deturpar fatos e até mesmo mentir descaradamente". O relatório também mostra que esse padrão de comportamento continuou ao longo de sua carreira: durante seu tempo na Loopt, funcionários seniores tentaram duas vezes fazer com que a diretoria o demitisse, citando um comportamento "enganoso e caótico". Durante seu tempo na Y Combinator, ele negligenciou seus deveres, concentrando-se em seus projetos pessoais, e acabou sendo "afastado" pelo fundador Paul Graham. A manifestação mais dramática é que, depois de ser demitido do conselho da OpenAI, ele usou sua influência para reverter a operação, conseguindo com sucesso uma "reação negativa" do sistema de supervisão, "removendo seus membros do conselho e instalando seus próprios aliados" como condição de retorno. Riscos Operacionais e de Segurança: Falha Sistémica dos Compromissos de Segurança O relatório revela uma discrepância sistémica entre as palavras e os atos da OpenAI quando se trata de segurança e transparência, com uma grave desconexão entre os seus compromissos públicos e as práticas internas. A cultura da empresa mostra uma tendência para "apenas rápido, mas não quebrado", e está sistematicamente enfraquecendo, contornando e até mesmo punindo a supervisão de segurança interna e a dissidência, a fim de perseguir interesses comerciais e vantagens competitivas. O relatório revela uma inconsistência sistemática entre as palavras e os atos da OpenAI quando se trata de segurança e transparência. A empresa prometeu dedicar 20% de seus recursos de computação à equipe de segurança "superalinhada", mas, de acordo com o ex-chefe jan Leike, esse recurso nunca foi alocado. No desenvolvimento do GPT-4o, a equipe de segurança foi solicitada a "acelerar" os testes antes do lançamento do produto, e a empresa planejou a celebração do lançamento antes mesmo do início da avaliação. Mais grave, a empresa ameaça os funcionários que saem com acordos draconianos de demissão que custarão milhões de dólares em capital próprio se for criticada. O funcionário Leopold Aschenbrenner foi demitido por apresentar um memorando de risco à segurança nacional no conselho, e a empresa o informou explicitamente que o motivo da demissão era que ele "foi além" para relatar problemas de segurança. O relatório também apontou que a OpenAI teve um grave incidente de segurança de hacking e roubo de detalhes técnicos de IA em 2023, mas não reportou à empresa por até um ano.