Se IA superar inteligência humana, quanto tempo até o apocalipse?
Alguns especialistas acreditam, sim, que a tecnologia pode ser uma ameaça. Mas não todos
[a Covid-19 foi uma pequena amostra de quem manda; lamentavelmente, tudo indica que os que pensam mandar, não entenderam o recado.]
Enquanto o medo de que o desenvolvimento da inteligência artificial
(IA) leve à extinção da humanidade segue nos debates, não custa parar e
ouvir os especialistas. Alguns acreditam, sim, que a tecnologia pode
ser uma ameaça. Mas não todos. Na verdade, quem é do ramo se distribui,
hoje, por três escolas distintas que separam a maneira como compreendem o
desenvolvimento da IA. Duas dessas linhas apostam que estamos nos
aproximando de uma inteligência superior à humana.
Dentre os três
grupos, apenas um teme que estejamos em risco.
Essa questão, chegarmos a uma inteligência artificial porém equivalente
ou superior à humana, é o ponto fundamental do raciocínio. Large
Language Models (LLM), modelos de linguagem amplos como o que faz
funcionar o ChatGPT,
são grandes calculadoras probabilísticas. Esses sistemas são
alimentados e treinados com bilhões de textos diferentes. Em alguns
casos, trilhões.
Artigos, poemas, livros, textos de toda sorte escritos
por seres humanos. Dissecam matematicamente cada um desses arquivos,
fazem análise de contexto, compreendem como se constroem e, a partir
daí, se tornam capazes de produzir novos textos.
Seguem sendo modelos probabilísticos. Perante a pergunta que qualquer
um de nós faz, começam a redigir uma resposta.
Nesse contexto, nesse
assunto, qual a primeira palavra mais provável de aparecer?
E, depois da
primeira palavra, qual a segunda mais provável?
Assim por diante. Se o
modelo foi alimentado com muitos textos sobre aquele tema, a resposta
será mais precisa.
Se há poucos textos, possivelmente a resposta será
inventada.
Um LLM não sabe a diferença entre verdade e mentira. Tem sua
memória, tem informação arquivada e faz contas para apresentar palavras.
Nunca produzimos uma tecnologia assim. Os textos são incrivelmente
plausíveis.
Parecem escritos por seres humanos. E, de certa forma, são.
Afinal, baseiam-se nas maiores bibliotecas jamais reunidas.
A questão é: essa lógica probabilística, se lhe dermos tempo suficiente para se desenvolver, será capaz de raciocinar com originalidade?
Com criatividade?
CLIQUE AQUI, para continuar lendo
Pedro Doria, jornalista - O Globo