A teoria de derrubar a humanidade pela sabedoria sintética tem sido debatida há décadas, e em 2021 os cientistas darão seu veredicto sobre se a inteligência do supercomputador pode ser testada, controlada ou não.
O problema, dizem os cientistas, é que, para controlar a inteligência além da compreensão humana, é necessário simular essa inteligência para que possa ser analisada e controlada. Mas se as pessoas não conseguem entender isso, não é possível fazer tal divulgação.
O estudo foi publicado no Journal of Artificial Intelligence Research.
Leis como “não causar danos aos humanos” não podem ser estabelecidas se os humanos não entenderem as condições que a IA pode fornecer, dizem os cientistas. Uma vez que o sistema de computador está operando em um nível além das capacidades de nossos programadores, nenhum outro limite pode ser estabelecido.
"“A inteligência transcendental é um assunto completamente diferente daquele comumente estudado sob o slogan ‘ética robótica’. Isso ocorre porque a inteligência transcendental é multifacetada e, portanto, pode combinar muitos recursos diferentes para alcançar objetivos incompreensíveis para os humanos, embora incontroláveis”, disseram os pesquisadores.
Parte do pensamento de grupo vem do problema da pausa proposto por Alan Turing em 1936. O problema da pausa – O programa/algoritmo está pausado ou não? Parar significa que o programa em uma determinada entrada aceitará e parará ou rejeitará e parará e nunca entrará em um loop infinito. Basicamente, parar significa parar.
Como Turing demonstrou com inteligência matemática, embora possamos saber isso para alguns programas, é logicamente impossível encontrar uma maneira que nos permita saber isso para todos os programas que podem ser escritos. O que nos traz de volta à IA, que no caso mais inteligente pode armazenar todos os programas de computador possíveis em sua memória de uma só vez.
Por exemplo, qualquer programa escrito para evitar que a IA prejudique as pessoas e destrua o mundo, pode prejudicar (e parar) – matematicamente não podemos ter certeza absoluta, sim, significa que não está disponível. .
Os cientistas dizem que a única opção para ensinar o comportamento da IA e para ela não destruir o mundo – algo que nenhum algoritmo pode garantir – é limitar as capacidades da inteligência.
“Este estudo também refuta essa teoria, argumentando que reduzirá a acessibilidade da inteligência artificial; O argumento é que se não podemos usá-lo para resolver problemas além da capacidade humana, então por que criá-lo?
Se continuarmos com a lucidez sintética, talvez nem saibamos quando a sabedoria transcendental está além de nosso controle, essa é a ambiguidade dela. Isso significa que temos que começar a fazer perguntas sérias sobre as direções que estamos tomando. ” descobriram os cientistas.