Esta semana, um grupo de pesquisadores de IA conhecidos e respeitáveis assinou uma declaração que consiste em 24 palavras:
Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear.
Como professor de IA, também sou a favor de reduzir qualquer risco e estou preparado para trabalhar nisso pessoalmente. Mas qualquer declaração redigida dessa maneira está fadada a criar alarme, então seus autores provavelmente deveriam ser mais específicos e esclarecer suas preocupações.
Conforme definido pela Enciclopédia Britânica, extinção é “ a extinção ou extermínio de uma espécie ”. Conheci muitos dos signatários da declaração, que estão entre os cientistas mais respeitáveis e sólidos no campo – e eles certamente têm boas intenções. No entanto, eles não nos deram nenhum cenário tangível de como tal evento extremo pode ocorrer.
Não é a primeira vez que estamos nesta posição. Em 22 de março deste ano, uma petição assinada por um conjunto diferente de empresários e pesquisadores solicitou uma pausa na implantação da IA de seis meses . Na petição, no site do Instituto Futuro da Vida, eles expuseram como justificativa: “Riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA” – e acompanharam seu pedido com uma lista de perguntas retóricas:
"Devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Devemos desenvolver mentes não humanas que possam eventualmente superar-nos em número, ser mais espertos, obsoletos e nos substituir? Devemos arriscar perder o controle de nossa civilização?
Uma sensação genérica de alarme
Certamente é verdade que, além de muitos benefícios, essa tecnologia traz riscos que precisamos levar a sério. Mas nenhum dos cenários mencionados parece delinear um caminho específico para a extinção. Isso significa que ficamos com uma sensação genérica de alarme, sem quaisquer ações possíveis que possamos tomar.
O site do Center for AI Safety , onde apareceu a última declaração, descreve em uma seção separada oito amplas categorias de risco . Isso inclui o “armamento” da IA, seu uso para manipular o sistema de notícias, a possibilidade de os humanos eventualmente se tornarem incapazes de se autogovernar, a facilitação de regimes opressivos e assim por diante.
Exceto pelo armamento, não está claro como os outros riscos – ainda terríveis – podem levar à extinção de nossa espécie, e o ônus de explicar isso recai sobre aqueles que o reivindicam.
O armamento é uma preocupação real, é claro, mas o que isso significa também deve ser esclarecido. Em seu site, a principal preocupação do Center for AI Safety parece ser o uso de sistemas de IA para projetar armas químicas. Isso deve ser evitado a todo custo – mas as armas químicas já estão proibidas. A extinção é um evento muito específico que exige explicações muito específicas.
Em 16 de maio, em sua audiência no Senado dos EUA , Sam Altman, o CEO da OpenAI – que desenvolveu o chatbot ChatGPT AI – foi solicitado duas vezes a explicar seu pior cenário. Ele finalmente respondeu:
Meu maior medo é que nós – o campo, a tecnologia, a indústria – causemos danos significativos ao mundo… É por isso que começamos a empresa [para evitar esse futuro]… Acho que se essa tecnologia der errado, pode dar muito errado.
Mas embora eu seja fortemente a favor de sermos tão cuidadosos quanto possível, e tenho dito isso publicamente nos últimos dez anos, é importante manter um senso de proporção – particularmente ao discutir a extinção de uma espécie de oito bilhões indivíduos.
A IA pode criar problemas sociais que realmente devem ser evitados. Como cientistas, temos o dever de entendê-los e depois fazer o possível para resolvê-los. Mas o primeiro passo é nomeá-los e descrevê-los – e ser específico.
Nello Cristianini , Professor de Inteligência Artificial,University of Bath
Este artigo foi republicado de The Conversation sob uma licença Creative Commons.
Leia o artigo original .