A OpenAI removeu a palavra ‘segurança’ de sua missão — e por que isso preocupa?
|
Getting your Trinity Audio player ready...
|
- Poder dos Acionistas vs. Sociedade: Na estrutura original, o conselho sem fins lucrativos tinha o poder de frear o desenvolvimento se houvesse riscos existenciais, mas na nova configuração, a pressão por retornos financeiros de investidores como Microsoft e Apple ganha um peso sem precedentes.
- A Saída de Líderes de Segurança: Nos últimos meses, figuras-chave da área de “alinhamento” e segurança da IA deixaram a empresa, expressando preocupações de que a cultura de segurança tenha sido atropelada pelo ritmo frenético para o lançamento de produtos.
- Transparência: Como uma empresa que visa o lucro, a OpenAI terá menos incentivos para compartilhar pesquisas abertamente, priorizando a proteção de propriedade intelectual para manter sua vantagem competitiva.
A OpenAI, criadora do chatbot de IA mais popular [ChatGPT], costumava dizer que seu objetivo era construir uma inteligência artificial que “beneficiasse a humanidade com segurança, sem as restrições da necessidade de gerar retorno financeiro”, conforme consta na sua declaração de missão de 2023. Mas a criadora do ChatGPT parece não ter mais a mesma ênfase em fazê-lo com “segurança“.
Ao revisar seu formulário de divulgação mais recente do IRS (Receita Federal dos EUA), lançado em novembro de 2025 e referente ao ano de 2024, notei que a OpenAI havia removido o termo “com segurança” de sua declaração de missão, entre outras mudanças. Essa alteração coincidiu com sua transformação de uma organização sem fins lucrativos em uma empresa cada vez mais focada em lucros.
A OpenAI enfrenta atualmente diversos processos judiciais relacionados à segurança de seus produtos, o que torna essa mudança digna de nota. Muitos dos autores que processam a empresa de IA alegam manipulação psicológica, morte por negligência e auxílio ao suicídio, enquanto outros entraram com ações por negligência.
A OpenAI, que também produz o Sora (aplicativo de inteligência artificial de vídeo), foi fundada como um laboratório de pesquisa científica sem fins lucrativos em 2015. Seu propósito original era beneficiar a sociedade ao tornar suas descobertas públicas e livres de royalties, em vez de ganhar dinheiro.
Para arrecadar o dinheiro que o desenvolvimento de seus modelos de IA exigiria, a OpenAI, sob a liderança do CEO Sam Altman, criou uma subsidiária com fins lucrativos em 2019. A Microsoft investiu inicialmente US$ 1 bilhão nessa empreitada; até 2024, essa soma havia ultrapassado US$ 13 bilhões.
Em troca, a Microsoft recebeu a promessa de uma parcela dos lucros futuros, limitada a 100 vezes o seu investimento inicial. Mas a gigante do software não obteve um assento no conselho sem fins lucrativos da OpenAI — o que significa que lhe faltava o poder para ajudar a conduzir o empreendimento de IA que estava financiando.
Uma rodada subsequente de financiamento no final de 2024, que arrecadou US$ 6,6 bilhões de múltiplos investidores, veio com uma condição: que o financiamento se tornaria dívida, a menos que a OpenAI se convertesse em uma empresa tradicional com fins lucrativos, na qual os investidores pudessem possuir ações, sem limites de lucros, e possivelmente ocupar assentos no conselho.
Estabelecendo uma nova estrutura
Em outubro de 2025, a OpenAI chegou a um acordo com os procuradores-gerais da Califórnia e de Delaware para se tornar uma empresa com fins lucrativos mais tradicional.
Sob o novo arranjo, a OpenAI foi dividida em duas entidades: uma fundação sem fins lucrativos e uma empresa com fins lucrativos.
A organização sem fins lucrativos reestruturada, a OpenAI Foundation, detém cerca de um quarto das ações de uma nova corporação de capital aberto com fins lucrativos, o OpenAI Group. Ambas estão sediadas na Califórnia, mas incorporadas em Delaware.
Uma corporação de capital aberto é uma empresa que deve considerar interesses além dos acionistas, como os da sociedade e do meio ambiente, e deve emitir um relatório de benefício anual para seus acionistas e para o público. No entanto, cabe ao conselho decidir como pesar esses interesses e o que relatar em termos de benefícios e danos causados pela empresa.
A nova estrutura é descrita em um memorando de entendimento assinado em outubro de 2025 pela OpenAI e pelo procurador-geral da Califórnia, e endossado pelo procurador-geral de Delaware.
Muitos veículos de mídia com foco em negócios saudaram a mudança, prevendo que ela atrairia mais investimentos. Dois meses depois, o SoftBank, um conglomerado japonês, finalizou um investimento de US$ 41 bilhões na OpenAI.
Alterando sua declaração de missão
A maioria das instituições sem fins lucrativos (ONGs) deve apresentar formulários anualmente ao IRS com detalhes sobre suas missões, atividades e situação financeira para mostrar que se qualificam para o status de isenção fiscal. Como o IRS torna os formulários públicos, eles se tornaram uma forma das ONGs sinalizarem suas missões ao mundo.
Em seus formulários de 2022 e 2023, a OpenAI disse que sua missão era “construir inteligência artificial (IA) de uso geral que beneficie a humanidade com segurança, sem as restrições da necessidade de gerar retorno financeiro”.
Essa declaração de missão mudou a partir do formulário 990 da OpenAI de 2024 — que a empresa protocolou no IRS no final de 2025. Ela passou a ser “garantir que a inteligência artificial geral beneficie toda a humanidade”.
A OpenAI abandonou seu compromisso com a segurança em sua declaração de missão — juntamente com o compromisso de ser “desimpedida” pela necessidade de ganhar dinheiro para os investidores. De acordo com o Platformer, um veículo de mídia de tecnologia, ela também dissolveu sua equipe de “alinhamento de missão”.
Na minha visão, essas mudanças sinalizam explicitamente que a OpenAI está tornando seus lucros uma prioridade maior do que a segurança de seus produtos.
Certamente, a OpenAI continua a mencionar a segurança quando discute sua missão. “Vemos esta missão como o desafio mais importante do nosso tempo”, afirma em seu site. “Ela requer o avanço simultâneo da capacidade da IA, da segurança e do impacto positivo no mundo”.
Revisando sua estrutura de governança legal
Conselhos de organizações sem fins lucrativos são responsáveis por decisões fundamentais e por sustentar a missão de sua organização.
Diferentemente de empresas privadas, membros do conselho de instituições isentas de impostos não podem ficar ricos recebendo uma parcela dos ganhos. Nos casos em que uma organização sem fins lucrativos possua um negócio com fins lucrativos, como a OpenAI fazia com sua estrutura anterior, os investidores podem receber uma parte dos lucros — mas eles geralmente não conseguem um assento no conselho ou a oportunidade de eleger membros, porque isso seria visto como um conflito de interesses.
A OpenAI Foundation agora possui uma participação de 26% no OpenAI Group. Na prática, isso significa que o conselho sem fins lucrativos desistiu de quase três quartos de seu controle sobre a empresa. A gigante do software Microsoft detém uma participação ligeiramente maior — 27% das ações da OpenAI — devido ao seu investimento de US$ 13,8 bilhões na empresa de IA até o momento. Os funcionários da OpenAI e seus outros investidores possuem o restante das ações.

Buscando mais investimento
O principal objetivo da reestruturação da OpenAI, que ela chamou de “recapitalização”, era atrair mais investimento privado na corrida pela dominância da IA. Ela já obteve sucesso nessa frente.
No início de fevereiro de 2026, a empresa estava em negociações com o SoftBank para um aporte adicional de US$ 30 bilhões e está prestes a receber até um total de US$ 60 bilhões da Amazon, Nvidia e Microsoft combinado.
O valor atual da OpenAI já passa dos US$ 500 bilhões, ante os US$ 300 bilhões em março de 2025. A nova estrutura também abre caminho para uma eventual oferta pública inicial (IPO), que, se acontecer, não apenas ajudaria a empresa a arrecadar mais capital através dos mercados de ações, mas também aumentaria a pressão para arrecadar dinheiro para seus acionistas.
A OpenAI afirma que a dotação da fundação vale cerca de US$ 130 bilhões.
Esses números são apenas estimativas porque a OpenAI é uma empresa de capital fechado sem ações negociadas publicamente. Isso significa que esses valores são baseados em estimativas de valor de mercado, e não em qualquer evidência objetiva, como a capitalização de mercado.
Quando anunciou a nova estrutura, o procurador-geral da Califórnia, Rob Bonta, disse: “Garantimos concessões que asseguram que os ativos beneficentes sejam usados para o propósito pretendido”. Ele também previu que “a segurança será priorizada” e disse que a “prioridade máxima é, e sempre será, proteger nossas crianças”.
Passos que podem ajudar a manter as pessoas seguras
Ao mesmo tempo, várias condições no memorando de reestruturação da OpenAI foram desenhadas para promover a segurança, incluindo:
- Um comitê de segurança e proteção no conselho da OpenAI Foundation tem a autoridade para “exigir medidas de mitigação” que poderiam potencialmente incluir a interrupção do lançamento de novos produtos da OpenAI com base em avaliações de seus riscos.
- O OpenAI Group (com fins lucrativos) tem seu próprio conselho, que deve considerar apenas a missão da OpenAI — em vez de questões financeiras — em relação a questões de segurança e proteção.
- O conselho sem fins lucrativos da OpenAI Foundation nomeia todos os membros do conselho com fins lucrativos do OpenAI Group.
Mas, dado que nem a missão da fundação nem a do grupo OpenAI fazem alusão explícita à segurança, será difícil responsabilizar seus conselhos por isso.
Além do mais, como todos os membros do conselho, exceto um, servem atualmente em ambos os conselhos, é difícil ver como eles poderiam fiscalizar a si mesmos. E o memorando assinado pelo procurador-geral da Califórnia não indica se ele estava ciente da remoção de qualquer referência à segurança na declaração de missão.
Existem modelos alternativos que acredito que serviriam melhor ao interesse público do que este.
Quando a Health Net, uma organização de manutenção de saúde sem fins lucrativos, da Califórnia, se converteu em uma seguradora com fins lucrativos em 1992, os reguladores exigiram que 80% de seu patrimônio fosse transferido para outra fundação de saúde sem fins lucrativos. Diferente da OpenAI, a fundação teve o controle majoritário após a transformação.
Uma coalizão de organizações sem fins lucrativos da Califórnia argumentou que o procurador-geral deveria exigir que a OpenAI transferisse todos os seus ativos para uma organização sem fins lucrativos independente.
Outro exemplo é o do jornal The Philadelphia Inquirer, da Pensilvânia, que em 2016 virou uma corporação de benefício público com fins lucrativos. Ele pertence ao Lenfest Institute, uma organização sem fins lucrativos.
Essa estrutura permitiu que o maior jornal da Filadélfia atraísse investimentos sem comprometer seu propósito — o jornalismo servindo às necessidades de suas comunidades locais – e tenha se tornado num modelo para potencialmente transformar a indústria de notícias locais.
Neste ponto, acredito que o público carrega o peso de duas falhas de governança. Uma é que o conselho da OpenAI aparentemente abandonou sua missão de segurança. E a outra é que os procuradores-gerais da Califórnia e de Delaware deixaram isso acontecer.
Artigo original (em inglês) publicado por Alnoor Ebrahim na The Conversation US.

Sobre o autor
Alnoor Ebrahim é Professor de Negócios Internacionais na The Fletcher School & Tisch College of Civic Life, Universidade Tufts. Ele é doutor e mestre pela Universidade Stanford e bacharel em ciência pelo M.I.T.
Declaração de Transparência
Alnoor Ebrahim não presta consultoria, trabalha, possui ações ou recebe financiamento de qualquer empresa ou organização que poderia se beneficiar com a publicação deste artigo e não revelou nenhum vínculo relevante além de seu cargo acadêmico.
Pareceria
A Universidade Tufts fornece fundos como membro da The Conversation UK.
