Sam Altman tem escrito em blogs por um longo período, mais do que tem trabalhado na área de Inteligência Artificial.
O CEO da OpenAI, Altman, iniciou seu blog em 2013, chamado “Sam Altman”, enquanto trabalhava no YCombinator. Nos primeiros posts, ele não falava sobre inteligência artificial, mas sim sobre ferramentas de inicialização B2B, conversas de jantar e UFOs.
Então ocorreu essa percepção inesperada: “Os empreendedores mais bem-sucedidos não se preparam para estabelecer empresas”, afirmou Altman. “Eles estão empenhados em criar algo que se assemelha mais a uma crença religiosa.” Ao ler o mais recente artigo de blog de Altman de 2025, “A Singularidade Gentil”, fica evidente o quão bem-sucedida foi essa missão.
Estamos além do ponto de viragem do acontecimento; o processo de lançamento já começou. É assim que Altman inicia, e o discurso se torna ainda mais messiânico a partir daí. A humanidade está perto de criar uma superinteligência digital. Posso proporcionar uma experiência alucinante?
Em outras palavras, a ciência não indica que a humanidade está prestes a desenvolver a superinteligência digital, também conhecida como Inteligência Artificial Geral. Os modelos construídos até agora podem ser benéficos para processar grandes quantidades de informações de certas maneiras, mas também apresentam falhas significativas. As ilusões de inteligência artificial parecem estar incorporadas nos modelos, principalmente nos chatbots de AI, e estão causando danos no mundo real.
Não há progresso no pensamento, como demonstrado de forma simples em um artigo publicado nesta semana: Em alguns casos, os modelos de IA não conseguem identificar a resposta mesmo que ela seja fornecida a eles.
Não mencione isso a Altman. Ele está em uma jornada para o futuro, buscando competir com Ray Kurzweil, o renomado guru do Vale do Silício que inicialmente sugeriu que estamos nos encaminhando para uma singularidade tecnológica. Enquanto Kurzweil estabeleceu seu marco de mudança radical muitos anos antes, Altman está disposto a correr o risco de parecer equivocado em breve: “Provavelmente veremos a chegada de sistemas capazes de descobrir novas percepções em 2026. Em 2027, talvez testemunhemos a chegada de robôs capazes de realizar tarefas no mundo real… É difícil prever o que teremos descoberto até 2035; talvez passemos de resolver os mistérios da física de alta energia em um ano para iniciar a colonização do espaço no próximo.”
O uso frequente de termos como “provavelmente”, “talvez” e “em algum sentido” está sendo muito enfatizado. Enquanto Altman pode adotar uma abordagem mais próxima da religião em suas suposições sobre AGI, ele não descarta completamente a razão. Apesar da linguagem emocionante da ficção científica, nem sempre ele está afirmando tanto (por exemplo, “já não temos robôs capazes de realizar tarefas no mundo real?”). Em relação às suas afirmações mais extravagantes, Altman é habilidoso em expressá-las de forma vaga, usando uma combinação de palavras que podem ter interpretações diversas. Por exemplo, ele disse: “Em certo sentido amplo, ChatGPT já é mais poderoso do que qualquer ser humano que já existiu.” Você poderia me fornecer a citação exata, por favor?
O convite para uma auditoria ambiental da IA foi feito por Sam Altman agora?
No mais recente post do blog da Altman, não se trata de uma suposição sobre o futuro. No texto está incluída a primeira declaração do CEO da OpenAI sobre o consumo de energia e água do ChatGPT – e como, com sua controvérsia desnecessária sobre uma voz semelhante à de Scarlett Johansson, fica claro que a situação pode não se desenrolar como Altman imagina.
Desde que o ChatGPT se tornou extremamente popular em 2023, a OpenAI, assim como seus principais concorrentes Google e Microsoft, têm investigado minuciosamente os data centers em busca de informações sobre seu uso. Sasha Luccioni, líder climática na plataforma de código aberto HuggingFace, mencionou no ano passado que ainda não se tem conhecimento sobre como funcionam os modelos grandes como o GPT, afirmando que tudo é mantido em sigilo pelas empresas.
Altman finalmente compartilhou informações sobre o consumo de energia de uma consulta do ChatGPT. Em um post em seu blog, o CEO da OpenAI mencionou que a consulta média consome aproximadamente 0,34 watt-horas e cerca de 0,000085 galões de água.
- Vazamento revela os planos de Sam Altman e Jony Ive: desenvolver 100 milhões de dispositivos AI ‘companions’.
- Resumo: O autor do livro “Império da IA” discute o interesse da OpenAI na inteligência artificial geral (AGI) e explora as razões pelas quais Sam Altman tentou desacreditar sua obra.
- Sam Altman afirmou que a OpenAI, uma organização sem fins lucrativos, manterá o controle da empresa avaliada em US$ 300 bilhões.
Não há mais informações disponíveis para verificar essas estatísticas; Altman não menciona qual versão do ChatGPT está sendo utilizada. O OpenAI não respondeu a vários pedidos de esclarecimento de diferentes meios de comunicação. Altman está claramente interessado em reduzir o consumo de energia e água necessários pelo OpenAI, e ele está tentando minimizar isso. O principal foco não é a precisão dos pesquisadores como Luccioni, mas sim a grande quantidade de energia e água necessárias para treinar os modelos inicialmente.
Atualmente, ele demonstrou estar receptivo ao questionamento frequente. Altman tem menos motivos para ficar na defensiva. Por que não disponibilizar todos os dados para permitir que outros reproduzam seus resultados, seguindo a prática comum entre os cientistas? Enquanto isso, debates sobre a eficiência energética dos data centers e o consumo de água estão surgindo nos Estados Unidos. Luccioni iniciou um AI Energy Leaderboard que destaca as diferenças nos modelos de IA de código aberto.
Isso é uma questão importante, uma vez que as empresas buscam economizar energia e já existem empresas como Meta, Microsoft e Google atuando nesse sentido. A OpenAI deveria se juntar a elas?
No desfecho, a solução está relacionada à questão de saber se Altman está criando uma empresa ou algo mais próximo de uma religião.
Organização OpenAI
Comments