Gigantes da Tecnologia Clamam por Trégua na Corrida da IA
Elon Musk, Steve Wozniak e outros líderes exigem pausa de seis meses em experimentos de Inteligência Artificial para garantir segurança e benefícios a todos
Caro assinante,
Figuras influentes do mundo da tecnologia e pesquisadores renomados em Inteligência Artificial (IA) uniram forças em uma carta aberta, pedindo que laboratórios e empresas do setor interrompam suas atividades "imediatamente".
Há uma chance de 10% de um "resultado extremamente ruim" da IA, incluindo a extinção humana.
Personalidades como Steve Wozniak e Elon Musk endossam a ideia de uma pausa mínima de seis meses na criação de tecnologias mais avançadas que o GPT-4, permitindo que a sociedade se adapte e desfrute dos benefícios dos sistemas de IA atuais de forma mais segura e eficiente. A carta enfatiza a necessidade de cautela e planejamento na garantia da segurança dos sistemas de IA, aspectos que, segundo os signatários, têm sido negligenciados.
A menção ao GPT-4, um modelo da OpenAI capaz de responder a mensagens escritas e visuais, ocorre em um momento em que empresas disputam a criação de sistemas de bate-papo complexos baseados nessa tecnologia. A Microsoft, por exemplo, revelou recentemente que seu mecanismo de busca Bing, reformulado, utiliza o GPT-4 há mais de sete semanas. Já o Google lançou o Bard, seu próprio sistema generativo de IA, alimentado pela LaMDA. As preocupações com a IA não são novas, mas a corrida pelo pioneirismo na implantação de tecnologias de IA avançadas tem gerado inquietações cada vez mais urgentes.
A carta destaca que, infelizmente, o planejamento e gerenciamento adequados não estão acontecendo, mesmo com os laboratórios de IA envolvidos em uma disputa acirrada para desenvolver e lançar sistemas digitais cada vez mais poderosos que, muitas vezes, nem os próprios criadores conseguem entender, prever ou controlar de forma confiável.
A carta foi divulgada pelo Future of Life Institute (FLI), uma organização focada em minimizar riscos e usos inadequados de novas tecnologias. Elon Musk já doou $10 milhões ao FLI para financiar estudos sobre segurança em IA.
A carta parece ser um desdobramento de uma pesquisa de 2022, envolvendo mais de 700 pesquisadores em aprendizado de máquina. Nela, cerca de metade dos entrevistados afirmou que há uma chance de 10% de um "resultado extremamente ruim" da IA, incluindo a extinção humana.