Especialistas chineses pedem uma pausa no desenvolvimento rápido da tecnologia ChatGPT e chamam atenção de Musk e outros.
- Publicidade -
Diversos especialistas da China continental e Hong Kong se uniram em apoio à carta aberta, enfatizando a necessidade de abordar as preocupações em torno da corrida tecnológica. A segurança, a razoabilidade e a ética no desenvolvimento das tecnologias ChatGPT foram apontadas como fundamentais pelos especialistas, que reforçam a importância do escrutínio rigoroso nesse processo.
Um grupo de especialistas em inteligência artificial (IA) altamente conceituados, oriundos da China continental e de Hong Kong, alinhou-se aos apelos de veteranos globais em tecnologia para interromper o desenvolvimento de tecnologias de IA ainda mais avançadas que o GPT-4, com o intuito de alertar sobre a taxa atual de progresso que é considerada “extremamente rápida”.
- Publicidade -
No mês passado, o Future of Life Institute (FLI), um prestigiado centro de pesquisa que se dedica a analisar os riscos tecnológicos para a sociedade humana, redigiu uma carta aberta que contou com a adesão de milhares de signatários de peso, dentre os quais se destacam personalidades como Elon Musk, da Tesla, o cofundador da Apple Steve Wozniak e o renomado historiador Yuval Harari. A carta alerta para os perigos da atual corrida em IA e solicita a criação de reguladores independentes que possam garantir a segurança dos sistemas futuros que serão implantados.
"Embora tenha recebido críticas de alguns profissionais que a acusam de disseminar medo em relação ao futuro da IA, a carta aberta elaborada pelo Future of Life Institute (FLI) angariou o apoio de diversos especialistas conceituados da China continental e de Hong Kong, que destacam a importância de se abordar as preocupações relacionadas ao ChatGPT. Este bot de bate-papo com IA, desenvolvido pela OpenAI, utiliza o poderoso modelo de linguagem GPT-4 (LLM).
- Publicidade -
Há muito tempo, muito antes do lançamento do ChatGPT em novembro, um intenso debate vem sendo travado a respeito da possibilidade de a IA se tornar mais inteligente do que os próprios seres humanos.
Segundo Cai Hengjin, professor do renomado Instituto de Pesquisa em Inteligência Artificial da Universidade de Wuhan, o lançamento do ChatGPT foi um verdadeiro golpe para os argumentos daqueles que duvidavam da possibilidade de a IA superar os seres humanos.
- Publicidade -
“Um indicador de quão rápido e poderoso o crescimento da IA seria além de nossa imaginação é o que está em jogo aqui. Algumas pessoas acreditavam que seu desenvolvimento seria lento e que ainda teríamos décadas ou mesmo centenas de anos de evolução pela frente”, declarou Cai em entrevista ao Post no último domingo. “Porém, essa não é a realidade… Temos apenas alguns anos, uma vez que a nossa evolução em IA tem ocorrido em um ritmo extremamente acelerado.”
As apreensões de Cai encontram eco entre muitos outros signatários chineses da carta aberta do FLI.
- Publicidade -
Zhang Yizhe, professor associado da Universidade de Ciência e Tecnologia de Nanjing, e Zhao Yaxiong, veterano da Amazon e CEO da Tricorder Observability, uma startup de software como serviço baseada em nuvem, levantaram preocupações sobre os desafios de segurança que a IA pode apresentar e pediram maior escrutínio.
Zhang afirmou ter assinado a carta aberta do FLI para apoiar as preocupações de segurança relacionadas à IA, destacando a necessidade de um sistema mais eficiente para coordenar as atividades de desenvolvimento de LLM em grandes empresas. Ele também ressaltou que não concorda plenamente com tudo o que foi mencionado na carta.
- Publicidade -
“De acordo com Zhang, o GPT-4 e outros modelos de IA maiores terão um impacto significativo na produtividade e poderão levar à perda de empregos em diversas áreas. Ele destaca a importância de discutir a segurança, a razoabilidade e a ética no desenvolvimento e uso desses modelos de linguagem supergrandes. Essa questão merece nossa atenção e consideração cuidadosa.”
Zhao, CEO da Tricorder Observability, chamou a tendência recente de se ter pesquisas avançadas como o ChatGPT na área de chatbots de IA de um sinal perigoso, indicando que já estamos permitindo que a IA assuma o julgamento de tarefas humanas.
- Publicidade -
Alfonso Ngan, reitor de engenharia da Universidade de Hong Kong, que também apoiou a carta, afirmou que irá solicitar aos estudantes que evitem o uso da tecnologia por um semestre, a fim de permitir que a instituição desenvolva uma posição clara sobre como ela pode ser adequadamente aplicada dentro do ambiente acadêmico.
“Não estamos proibindo isso permanentemente”, afirmou Ngan, acrescentando que IAs poderosas como o ChatGPT representam um desafio para o setor educacional.
- Publicidade -
Alfonso Ngan, reitor associado de engenharia da Universidade de Hong Kong, reconhece o valor da exposição dos alunos à tecnologia de IA, mas acredita que a potência das IAs poderosas, como o ChatGPT, representa um enigma para o setor educacional. “Por um lado, queremos que nossos alunos sejam expostos a essas tecnologias para aprender e até precisamos ensiná-las”, disse Ngan. “Mas, por outro lado, o setor educacional precisa de tempo para ajustar as operações, principalmente em relação à avaliação, trabalhos de casa e tarefas.”
Ngan e outros signatários, como Zhao da Tricorder e Chen Yongli, fundador da start-up Edgenesis, especializada em Internet das Coisas, reconhecem que o poder do ChatGPT não pode ser subestimado.
- Publicidade -
Cai argumentou que simplesmente contar com a compaixão das IAs mais poderosas e inteligentes é um erro grave. Ele enfatizou que não podemos presumir que essas máquinas serão racionalmente benevolentes e não adquirirão a natureza humana ruim. Cai ressaltou que o ChatGPT, por exemplo, foi treinado exclusivamente com dados em linguagem humana, o que significa que a IA pode ser facilmente influenciada pelos preconceitos humanos.
Cai sugeriu que podemos usar o tempo que temos para evoluir junto com a IA no metaverso e treiná-la para que tenha uma atitude positiva.