Uma figura importante no campo da inteligência artificial, que trabalhou anteriormente no Google, expressou sérias preocupações sobre os possíveis perigos dos sistemas de IA que ele contribuiu para desenvolver.
Como cofundador da DeepMind, a renomada empresa de IA adquirida pelo Google em 2014, Mustafa Suleyman desempenhou um papel fundamental no pioneirismo dos principais avanços em inteligência artificial.
Agora, fundador da Inflection AI, uma startup de autoaprendizagem conhecida por criar o chatbot Pi, Suleyman tem mais de uma década de experiência na vanguarda do desenvolvimento de IA.
Dada a sua estatura como um luminar da inteligência artificial, suas advertências recentes sobre os possíveis perigos de sistemas de IA mal alinhados têm um peso significativo e merecem uma consideração séria.
Suleyman adverte que, sem as devidas salvaguardas, a tecnologia transformadora que ele ajudou a desencadear pode representar ameaças imprevistas. Sua posição como pioneiro da IA confere gravidade a seus apelos para a aplicação ética e a governança da IA.
"“O cenário mais sombrio para a IA é que ela seja usada para fazer experimentos com patógenos, patógenos sintéticos manipulados que podem acabar sendo mais transmissíveis, acidental ou intencionalmente”, afirmou Suleyman em um episódio recente do podcast The Diary of a CEO.
“As doenças virais manipuladas por IA poderiam se espalhar mais rapidamente ou ser mais letais”, continuou ele, o que poderia causar “mais danos” e até matar pessoas “como uma pandemia”.
Contenha a IA antes que ela nos contenha
Suleyman acredita que estamos assumindo grandes riscos com a inteligência artificial que podem sair pela culatra se as devidas precauções não forem implementadas.
Suleyman adverte que a poderosa tecnologia corre o risco de sair do controle como uma chama perigosa, a menos que sejam tomadas medidas para governar seu desenvolvimento de forma responsável.
“Não podemos permitir que qualquer pessoa tenha acesso. Precisamos limitar quem pode usar o software de IA, os sistemas de nuvem e até mesmo alguns dos materiais biológicos”, alertou.
Com o crescente número de indivíduos adquirindo habilidades no domínio da biotecnologia, observa-se uma preocupação crescente quanto à possibilidade de um cenário em que alguém possa deliberadamente conceber um patógeno viral geneticamente modificado de maior letalidade do que qualquer ocorrência previamente documentada, e subsequentemente, liberá-lo na sociedade global.
É, portanto, nesse contexto que o cofundador da empresa DeepMind advoga a implementação de uma estratégia de “contenção” em relação à inteligência artificial (IA), semelhante à abordagem adotada pela Organização do Tratado do Atlântico Norte (OTAN) no que concerne ao controle de armas nucleares.
“Precisamos limitar o acesso às ferramentas e ao conhecimento necessário para realizar esse tipo de experimento”, concluiu Suleyman.