Chris Lehane é um dos melhores do setor em abafar más notícias. Lehane, secretário de imprensa de Al Gore durante a era Clinton e gestor de crises da Airbnb, que resistiu a todos os pesadelos regulamentares daqui até Bruxelas, sabe como agir. Agora, ele está no que pode ser o trabalho mais impossível de todos os tempos há dois anos. Como vice-presidente de política global da OpenAI, o seu trabalho é convencer o mundo de que a OpenAI leva a sério a democratização da inteligência artificial, mesmo que a empresa esteja a comportar-se da mesma forma que outros gigantes da tecnologia que há muito afirmam ser diferentes.
Fiquei com ele no palco por 20 minutos. melhorar conferência em Toronto no início desta semana – 20 minutos para superar os pontos de discussão e entrar nas contradições reais que estão minando a imagem cuidadosamente construída da OpenAI. Não foi fácil e também não foi totalmente bem-sucedido. Lehane é muito bom no que faz. Ele é simpático. Ele parece razoável. Ele reconhece a incerteza. Ele até fala sobre acordar às 3 da manhã se perguntando se isso realmente beneficiaria a humanidade.
Mas as boas intenções não significam muito quando a sua empresa convoca detractores, drena água e electricidade de cidades economicamente deprimidas ou traz de volta à vida celebridades mortas para afirmar o domínio do mercado.
O problema Sora da empresa está na verdade na raiz de tudo. A ferramenta de geração de vídeo foi lançada na semana passada e parece incluir material protegido por direitos autorais intacto. Foi uma medida ousada para a empresa, que já foi processada pelo New York Times, pelo Toronto Star e por metade da indústria editorial. Também foi ótimo do ponto de vista comercial e de marketing. Os aplicativos somente para convidados dispararam Topo da App Store À medida que as pessoas criam versões digitais de si mesmas, diz Sam Altman, CEO da OpenAI. Personagens como Pikachu, Mario e Cartman de “South Park”. Também existem pessoas famosas que já faleceram, como Tupac Shakur.
Quando questionado sobre o que motivou a decisão da OpenAI de lançar esta versão mais recente de Sora com esses personagens, Lehane deu a opinião padrão. Sora é uma “tecnologia de uso geral”, como a eletricidade ou a imprensa, que democratiza a criatividade para pessoas sem talento ou recursos. Mesmo se autodenominando um criativo zero, ele disse no palco que agora pode fazer vídeos.
He Danced foi originalmente “permitido” pelos detentores dos direitos a optar por não ter seu trabalho usado para treinar Sora, o que não é como os direitos autorais são normalmente usados. Então, depois que a OpenAI percebeu que as pessoas realmente gostavam de usar imagens protegidas por direitos autorais, a OpenAI Modelo de aceitação. Não é realmente uma repetição. Estou tentando ver até onde posso escapar. (A propósito, a associação cinematográfica fez algum barulho Na semana passada, a OpenAI parecia se safar bastante quando se tratava de ameaças legais. )
Não é novidade que esta situação é um lembrete frustrante para os editores que acusam a OpenAI de treinar o seu trabalho sem partilhar os espólios financeiros. Quando confrontei Lehane sobre o fato de os editores estarem excluídos da economia, ele mencionou o uso justo. O uso justo é uma doutrina jurídica americana que equilibra os direitos dos criadores com o acesso do público ao conhecimento. Ele chamou isso de arma secreta da superioridade tecnológica da América.
evento de crise tecnológica
São Francisco
|
27 a 29 de outubro de 2025
talvez. Mas recentemente eu Entrevista com Al Gore – antigo chefe de Lehane – e percebi que em vez de ler meus artigos no TechCrunch, qualquer pessoa poderia facilmente fazer uma pergunta no ChatGPT. “É ‘repetitivo'”, eu disse, “mas também é deslocamento.”
Pela primeira vez, Lehane abandonou Spiel. “Todos nós precisaremos entender isso”, disse ele. “É muito desajeitado e fácil sentar-nos aqui no palco e dizer que precisamos de criar um novo modelo de receitas económicas. Mas penso que o faremos.” (Resumindo, estamos inventando à medida que avançamos.)
Depois, há as questões de infraestrutura que ninguém quer responder honestamente. A OpenAI já opera um campus de data center em Abilene, Texas, e recentemente inaugurou um grande data center em Lordstown, Ohio, em parceria com Oracle e SoftBank. Lehane compara a acessibilidade da IA ao advento da electricidade, dizendo que aqueles que tiveram acesso a ela por último ainda estão a recuperar o atraso, mas o projecto Stargate da OpenAI parece ter como alvo algumas regiões com desafios económicos semelhantes como locais para instalar instalações que necessitam de água e electricidade.
Durante a mesa redonda, Lehane falou sobre gigawatts e geopolítica quando questionado se essas comunidades se beneficiariam ou apenas pagariam a conta. Ele observou que o OpenAI requer cerca de gigawatts de energia por semana. A China instalou 450 gigawatts mais 33 instalações nucleares no ano passado. Se as democracias querem uma IA democrática, têm de competir. “O optimista que há em mim disse que isto modernizaria o nosso sistema energético”, disse ele, pintando um quadro de uma América reindustrializada com uma rede eléctrica transformada.
Estava se movendo. Mas não respondeu se as pessoas de Lordstown e Abilene veriam suas contas de serviços públicos dispararem enquanto a OpenAI gerava vídeos de John F. IA que mais consome energia Está lá. )
Então criei o exemplo mais desagradável. Um dia antes de sua entrevista, Zelda Williams implorou a estranhos no Instagram que parassem de enviar vídeos de seu falecido pai, Robin Williams, gerados por IA. “você não está fazendo arte“Você está usando a vida humana para fazer cachorros-quentes nojentos e superprocessados”, escreveu ela.
Quando perguntei como a empresa concilia a sua missão com este tipo de dano próximo, Lehane respondeu falando sobre processos como design responsável, estruturas de testes e parcerias governamentais. “Não existe um manual para isso, certo?”
Lehane às vezes demonstrou fraqueza, dizendo que acorda às 3 da manhã todas as noites preocupado com a democracia, a geopolítica e a infraestrutura. “Isso traz muita responsabilidade.”
Quer aquele momento tenha sido planejado ou não para o público, acredito em sua palavra. Na verdade, saí de Toronto pensando ter visto uma aula magistral sobre mensagens políticas. Pelo que sei, é Lehane enfiando a linha em uma agulha impossível enquanto se esquiva de perguntas sobre decisões da empresa com as quais ele nem concorda. Então sexta-feira aconteceu.
Nathan Calvin, advogado que trabalha com políticas de IA no grupo de defesa sem fins lucrativos Encode AI, disse que ao mesmo tempo eu estava conversando com Lehane em Toronto, OpenAI o deputado do xerife vai para casa Era para entregar uma intimação durante um jantar em Washington, D.C. Eles queriam suas mensagens pessoais com legisladores do estado da Califórnia, estudantes universitários e ex-funcionários da OpenAI.
Calvin acusa a OpenAI de táticas assustadoras em torno do novo regulamento de IA da Califórnia, SB 53. Ele disse que a OpenAI estava usando sua batalha legal com Elon Musk como pretexto para atingir seus críticos e sugeriu que a Encode foi secretamente financiada por Musk. Na verdade, Calvin lutou contra a oposição da OpenAI ao projeto de lei de segurança de IA da Califórnia, SB 53, e disse que “literalmente riu alto” quando viu a empresa alegar ter “trabalhado para melhorar o projeto”. Em uma série de mídias sociais, ele passou a chamar Lehane especificamente de “mestre das artes políticas obscuras”.
Em Washington, isso pode ser um elogio. Para uma empresa como a OpenAI, cuja missão é “construir uma IA que beneficie toda a humanidade”, isto soa como uma acusação.
Mais importante ainda, até mesmo os funcionários da OpenAI estão em conflito sobre o que acontece com eles.
Como meu colega Max relatado na semana passadaapós o lançamento do Sora 2, muitos funcionários atuais e ex-funcionários expressaram suas preocupações nas redes sociais. Entre eles está Boaz Barak, pesquisador da OpenAI e professor da Universidade de Harvard. Eu escrevi sobre Sora 2 “Embora tecnicamente impressionante, é muito cedo para elogiá-lo por evitar as armadilhas de outros aplicativos de mídia social e deepfakes.”
Na sexta-feira, Josh Achiam, diretor de coordenação de missões da OpenAI, tuitou algo mais notável sobre as acusações de Calvin. Atiam prefaciou seus comentários com “provavelmente um risco para toda a minha carreira”, escrevendo sobre OpenAI: “Não podemos nos dar ao luxo de fazer nada que nos torne um poder temeroso em vez de um poder benevolente. Temos um dever e uma missão para com toda a humanidade, e a barreira para cumprir esse dever é muito alta.”
Aquilo é. . . algo. Para os executivos da OpenAI questionarem publicamente se a sua empresa está a tornar-se uma “força terrível em vez de uma boa empresa” não é o mesmo que um concorrente disparar uma arma ou um repórter fazer uma pergunta. É alguém que escolhe trabalhar na OpenAI, acredita na sua missão e reconhece uma crise de consciência apesar dos riscos ocupacionais.
É um momento de cristalização. Você poderia ser o melhor agente político da indústria tecnológica, um mestre em navegar em situações impossíveis, e ainda assim acabar trabalhando para uma empresa cujas ações contradizem cada vez mais os valores que defende. Essa contradição provavelmente se tornará ainda mais forte à medida que a OpenAI avança em direção à inteligência artificial geral.
Acho que a verdadeira questão não é se Chris Lehane pode vender a missão da OpenAI. O que importa é se outras pessoas (incluindo, de forma crítica, outras que trabalham lá) ainda acreditam nisso.