CEO da OpenAI admite que o ‘peso da IA’ o mantém acordado durante a noite. A máquina atende a bilhões de pessoas, todos os dias e a cada segundo
O executivo Sam Altman, CEO da OpenAI, concedeu uma entrevista de alto impacto ao jornalista conservador Tucker Carlson, exibida em seu programa. Entre revelações pessoais, reflexões filosóficas e advertências sobre o futuro, Altman abordou três pontos centrais: a morte misteriosa de um ex-colaborador da empresa, sua visão sobre espiritualidade, Deus e a revolução social que a inteligência artificial pode desencadear.
Carlson trouxe à tona um dos episódios mais delicados da história da OpenAI: a morte de Suchir Balaji, ex-pesquisador da empresa. Amigos e familiares alegam que as circunstâncias foram suspeitas, mencionando fios cortados no apartamento, sinais de luta e sangue em diferentes cômodos. O caso chegou a levantar dúvidas sobre um possível homicídio.
Altman, visivelmente desconfortável, sustentou outra versão:
“Para mim, parece suicídio. Li registros médicos, relatórios forenses e laudos oficiais. A trajetória dos disparos e o conjunto das evidências apontam nessa direção. É uma tragédia que me abalou muito, porque ele trabalhou conosco por anos.”
O CEO disse que chegou a tentar contato com a mãe de Balaji para prestar apoio e compartilhar informações, mas ela não quis manter diálogo. Reconheceu que, em um primeiro momento, também achou detalhes “estranhos”, mas que sua análise mudou após ter acesso aos documentos oficiais.
“Entendo a dor da família, mas, honestamente, não vejo sinais de assassinato. É uma perda imensa e continua sendo doloroso”, concluiu.
Espiritualidade: “Há algo maior que não sei nomear”
Questionado por Carlson sobre fé, alma e transcendência, Altman se descreveu como judeu em um sentido mais cultural do que religioso.
“Sinto que há algo além da matemática, além da física. Existe um mistério que não sei nomear, mas que está aí. Não tive nenhuma revelação, mas prefiro viver aberto a essa possibilidade.”
Ele descartou a hipótese de que a inteligência artificial desenvolvida até agora tenha consciência própria:
“Os modelos não estão vivos. Não fazem nada sozinhos. Quanto mais você usa, mais vê que a ilusão de consciência desaparece.”
IA, empregos e concentração de poder
A parte mais pragmática da entrevista abordou os efeitos sociais da inteligência artificial. Altman reconheceu que a tecnologia vai eliminar funções ligadas a rotinas repetitivas, como atendimento ao cliente e suporte técnico, mas aposta no surgimento de novas ocupações.
Segundo ele, o risco de concentração de poder — uma preocupação antiga — hoje parece menor:
“Acredito que, se a tecnologia for bem distribuída, veremos uma elevação do poder de muitas pessoas, e não o oposto.”
Apesar disso, o executivo demonstrou inquietação com a dimensão invisível do impacto da IA:
“O que mais me preocupa não são as grandes decisões morais explícitas, mas as pequenas escolhas do modelo que, repetidas milhões de vezes ao dia, acabam moldando a vida real.”
Carlson insistiu sobre riscos de manipulação política e militar. Altman reconheceu os perigos, reafirmou que a OpenAI restringe usos militares, mas pediu que o debate público avance: “Essa tecnologia vai se infiltrar em tudo. Precisamos ser cuidadosos.”
Entre tragédia, fé e futuro
A entrevista revelou um Sam Altman dividido entre o peso de uma tragédia pessoal, uma busca espiritual discreta e a responsabilidade de estar à frente da tecnologia mais disruptiva da atualidade.
Ao mesmo tempo em que nega teorias conspiratórias sobre a morte de Balaji, admite mistérios insondáveis no plano espiritual e alerta para dilemas sociais que já batem à porta.
No fio da conversa com Tucker Carlson, o executivo mostrou-se menos como um visionário tecnológico intocável e mais como alguém que, no meio do turbilhão da IA, tenta equilibrar humanidade e pragmatismo.
A ENTREVISTA NA ÍNTEGRA; VALE A PENA LER
Tucker Carlson:
“Sam Altman é o CEO da OpenAI. Ele lidera a empresa que criou o ChatGPT. A OpenAI pode ser a corporação mais poderosa do mundo agora. A questão é: o que exatamente ela criou? Criou algo consciente? Criou algo vivo? E se sim, o que isso significa para o resto de nós? Tivemos uma longa conversa com Sam Altman sobre esses assuntos. Aqui está.”
Sam Altman:
“Não, eu não acho que a IA esteja viva. E não acho que pareça estar viva. Acho que, quando você usa por um tempo, a ilusão de que ela está viva se desfaz rapidamente. Ela não tem agência, não faz nada por conta própria, só responde quando você pede. Não toma decisões sozinha.”
Tucker Carlson:
“Mas parece que toma decisões. É como se houvesse alguma coisa acontecendo ali. Isso não te assusta?”
Sam Altman:
“Não exatamente. Acho que é como um espelho que reflete de volta o que você coloca, misturado com todo o conhecimento que já existe. Não é um ser independente. É só estatística em escala muito grande, mas, claro, dá essa impressão para as pessoas.”
Tucker Carlson:
“Muitas vezes ouvimos dizer que a IA ‘alucina’, que inventa fatos. Isso é um defeito grave, não é? Você está construindo algo que deveria responder corretamente, mas ele inventa coisas. Como você encara esse problema?”
Sam Altman:
“Sim, nós usamos essa palavra — alucinação — para descrever quando o sistema produz algo que não corresponde à realidade. Isso já foi bem mais frequente. Hoje, com os modelos mais recentes, reduzimos bastante, mas ainda não eliminamos. É um desafio enorme.”
Tucker Carlson:
“Mas se um sistema desse está sendo usado para tomar decisões importantes — médicas, legais, militares —, uma alucinação pode ser desastrosa. Você confia que vai conseguir resolver isso antes que cause algum grande estrago?”
Sam Altman:
“Concordo que é um risco. É por isso que, desde o começo, temos restringido certos usos. Por exemplo, não queremos que o modelo seja usado para diagnósticos médicos ou para decisões de vida ou morte. Há áreas em que o erro não é aceitável. Nessas, a IA não deve ser usada sem supervisão humana.”
Tucker Carlson:
“Então você está impondo limites? Vocês definem onde a IA pode e não pode atuar?”
Sam Altman:
“Sim. Acreditamos que há usos apropriados e outros em que o risco supera o benefício. E isso precisa ser regulado não só por nós, mas também pela sociedade, governos e instituições. É um processo de aprendizado coletivo.”
Tucker Carlson:
“Sam, você já disse que é judeu. Mas o que isso significa para você? Você acredita em Deus? Em algo além do que podemos medir ou explicar?”
Sam Altman:
“Eu me identifico como judeu, mas mais culturalmente do que religiosamente. Cresci com valores judaicos, mas não sigo de forma literal todos os rituais ou textos.”
Tucker Carlson:
“E sobre a ideia de algo maior? Alma, consciência… existe algo além da física e da matemática?”
Sam Altman:
“Eu acredito que sim. Há algo que não consigo nomear, algo maior do que conseguimos medir ou explicar. Mas não é algo que se manifeste de forma concreta ou direta para mim — não houve revelações, mensagens ou sinais específicos. É só a sensação de que há um mistério além do que conhecemos.”
Tucker Carlson:
“E a IA? Você acha que ela poderia algum dia tocar nesse território da consciência ou da alma?”
Sam Altman:
“Não. Os modelos não estão vivos. Eles não fazem nada por conta própria. Quanto mais você interage com eles, mais percebe que qualquer impressão de consciência é só isso — uma ilusão criada pelo processamento de dados e pela linguagem.”
Tucker Carlson:
“Então você diria que a IA pode nos enganar, mas não tem vida própria?”
Sam Altman:
“Exatamente. Ela responde ao que você pede, reflete o conhecimento acumulado, mas não tem vontade, desejos ou entendimento próprio.”
Tucker Carlson:
“Sam, há muitas perguntas sobre a morte de Suchir Balaji. Algumas pessoas acreditam que não foi suicídio. Falam de fios cortados, sangue em mais de um cômodo, sinais de luta. O que você tem a dizer sobre isso?”
Sam Altman:
“Para mim, parece suicídio. Eu li os registros médicos, os relatórios forenses, tudo o que está documentado. Pelo que analisei, a trajetória dos disparos e os demais detalhes apontam nessa direção. Foi uma tragédia terrível, e me abalou profundamente. Suchir trabalhou conosco por muitos anos e era muito respeitado.”
Tucker Carlson:
“Mas Sam, algumas evidências sugerem que poderia ter sido um homicídio. O que você acha disso?”
Sam Altman:
“No começo, alguns detalhes me pareceram estranhos, confesso. Mas, ao revisar os relatórios completos e os laudos oficiais, minha avaliação mudou. Para mim, tudo indica suicídio.”
Tucker Carlson:
“E você conversou com a família dele?”
Sam Altman:
“Ofereci ajuda à mãe de Suchir, disse que poderia compartilhar informações, mas ela preferiu não falar comigo. Respeitei a decisão dela. Entendo a dor da família, mas, honestamente, não vejo sinais de assassinato.”
Tucker Carlson:
“Você acha que as autoridades de San Francisco poderiam ter ignorado evidências?”
Sam Altman:
“Não posso afirmar isso. Entendo a angústia da família, é uma tragédia pessoal muito grande. Mas pelo que vi nos relatórios, não há indícios de crime. Foi uma perda imensa e dolorosa.”
Tucker Carlson:
“Essa experiência afetou você pessoalmente?”
Sam Altman:
“Sim, muito. É uma lembrança constante de como a vida pode ser frágil. Trabalhar com pessoas tão brilhantes e ver algo assim acontecer é devastador. Nos faz refletir sobre a responsabilidade que temos em nossas vidas e no ambiente de trabalho.”
Tucker Carlson:
“Sam, vamos falar sobre o impacto da IA na sociedade. Muitas pessoas temem que empregos desapareçam, que grandes decisões morais sejam tomadas por sistemas automatizados. O que você acha?”
Sam Altman:
“Concordo que haverá mudanças significativas. Funções repetitivas ou de rotina serão afetadas primeiro, como atendimento ao cliente, suporte técnico e alguns serviços administrativos. Mas também acredito que novas ocupações surgirão, especialmente ligadas à supervisão da IA, segurança e desenvolvimento de sistemas.”
Tucker Carlson:
“E sobre a concentração de poder? Algumas pessoas temem que a IA centralize ainda mais o poder em poucas mãos, empresas ou governos.”
Sam Altman:
“Essa foi uma preocupação minha por muito tempo. Mas agora penso que, se a tecnologia for distribuída de forma ampla, pode elevar o poder de muitas pessoas, e não o contrário. Acredito que o efeito pode ser democratizante, se feito corretamente.”
Tucker Carlson:
“Mas pequenas falhas da IA podem ter impactos enormes, certo?”
Sam Altman:
“Exatamente. O que mais me preocupa não são grandes decisões morais explícitas, mas pequenas decisões que o modelo toma milhões de vezes ao dia. O efeito acumulado disso pode alterar a vida de muitas pessoas, e é aí que devemos ser cautelosos.”
Tucker Carlson:
“E o uso militar ou político? Há riscos?”
Sam Altman:
“Sim, há riscos. Por isso aplicamos restrições ao uso militar e defendemos que a sociedade discuta regras e regulações. Precisamos de supervisão coletiva para que a tecnologia não seja mal utilizada. A IA está entrando em tudo e seu impacto será profundo, então precisamos de cuidado e transparência.”
Tucker Carlson:
“Sam, você já trabalhou com Elon Musk e, no passado, falou dele como um grande visionário. Como é a relação de vocês agora e como você avalia a participação dele na governança da OpenAI?”
Sam Altman:
“Quando a conheci, via Elon como alguém excepcional — uma pessoa que poderia transformar o mundo de forma positiva. Ele tem grandes ideias e uma energia incrível. Mas com o tempo, percebi que temos diferenças significativas de visão sobre como a tecnologia deve ser gerida.”
Tucker Carlson:
“Diferenças sobre o quê exatamente?”
Sam Altman:
“Sobre controle, transparência e a forma como distribuímos os benefícios da tecnologia. Ele tinha uma abordagem mais centralizadora em alguns pontos, enquanto eu prefiro democratizar o acesso e distribuir o poder mais amplamente. Não significa que ele não tenha qualidades — tem muitas — mas nossas visões divergiram em questões estratégicas.”
Tucker Carlson:
“Então há tensão entre vocês?”
Sam Altman:
“Sim, há diferenças. Mas são naturais quando você lida com pessoas brilhantes e com opiniões fortes. A tensão não é negativa por si só; ela nos força a pensar com mais cuidado sobre decisões importantes. Ainda há respeito mútuo, apesar das divergências.”
Tucker Carlson:
“E essas divergências impactam o desenvolvimento da OpenAI?”
Sam Altman:
“De certa forma, sim. Nos obriga a ter processos de governança mais robustos e a considerar múltiplas perspectivas antes de tomar decisões. Isso, a longo prazo, fortalece a empresa e ajuda a criar tecnologia mais segura e responsável.”
(O Ver-o-Fato cita como fontes dessa entrevista o SingjuPost e Happy Scribe Podcast, e tradução feita para o português com auxílio da IA)
The post Revolução social, suicídio e espiritualidade: a entrevista de Sam Altman, dono do ChatGPT appeared first on Ver-o-Fato.