Meta treinou seus novos modelos de IA utilizando a Bíblia com o objetivo de reconhecer e gerar fala em mais de 1.000 idiomas. A empresa almeja que esses algoritmos contribuam para a preservação de idiomas que enfrentam o perigo de extinção.
De acordo com um artigo publicado pelo MIT na segunda-feira, foi divulgado que a Meta desenvolveu essa abordagem de treinamento baseada na Bíblia.
Atualmente, estima-se que existam aproximadamente 7.000 idiomas no mundo, o que evidencia a diversidade linguística global.
A empresa está disponibilizando publicamente seus novos modelos de linguagem por meio da plataforma de hospedagem de código GitHub, com o intuito de permitir que desenvolvedores que trabalham com diferentes idiomas possam criar aplicativos de fala mais diversificados.
"Esses novos modelos foram treinados utilizando dois conjuntos de dados distintos: um contendo gravações de áudio do Novo Testamento da Bíblia em 1.107 idiomas, e outro composto por gravações de áudio do Novo Testamento sem rótulos em 3.809 idiomas.
“Podemos empregar o conhecimento adquirido por esse modelo para desenvolver de forma ágil sistemas de fala com uma quantidade extremamente reduzida de dados”, afirmou Michael Auli, cientista de pesquisa da Meta envolvido no projeto.
“No caso do inglês, dispomos de inúmeros conjuntos de dados de alta qualidade, assim como para alguns outros idiomas, entretanto, essa disponibilidade não se estende aos idiomas falados por, digamos, mil pessoas.”
Os pesquisadores agora afirmam que seus modelos são capazes de interagir em mais de 1.000 idiomas, enquanto reconhecem mais de 4.000.
Adicionalmente, em comparação com modelos desenvolvidos por empresas concorrentes, incluindo o OpenAI Whisper, a versão da Meta apresentou uma taxa de erro reduzida pela metade, mesmo abrangendo 11 vezes mais idiomas.
No entanto, nem tudo são aspectos positivos. Os cientistas afirmam que seus novos modelos podem apresentar erros na transcrição de palavras ou frases específicas, além de revelarem um maior número de palavras com viés em comparação com outros modelos, ainda que essa diferença seja de apenas 0,7%.
Chris Emezue, pesquisador da Masakhane, uma organização dedicada ao processamento de linguagem natural para idiomas africanos e que não esteve envolvido no projeto, declarou ao MIT que o uso de textos religiosos para o treinamento dos modelos pode ser problemático.
” A Bíblia apresenta muitos viéses e representações equivocadas”, explicou ele. Será que esse desenvolvimento representa um avanço para os modelos de linguagem ou é uma questão controversa demais para ter um impacto significativo?