Perspetivas menos usuais (blind spots) acerca da Inteligência Artificial
A IA, mas qual IA?
Não há uma, mas sim várias inteligências artificiais. Em 2023, certamente estamos a falar da quarta vaga da Inteligência Artificial, a IA generativa ou conversacional. Que é espetacular a vários níveis e não é relevante apenas para o setor tecnológico mas para todas as atividades humanas. “No knowledge worker is immune from the creative destruction of generative AI.”
O Machine Learning (ML) morreu. Nenhum do entusiasmo atual sobre IA é causado pelo ML. A terceira primavera da IA acabou e, pela primeira vez, não se seguiu um inverno. Foi suplantada por uma nova IA, o que é uma novidade. E morreu não tanto pelas técnicas usadas, mas sobretudo pelo tipo de questões a que dá resposta. O ML, a terceira geração da IA, podia descobrir se uma frase está escrita em português ou francês, mas jamais poderia escrever uma frase em qualquer das línguas. Era uma IA discriminativa, não generativa. Ora quem quer isso, hoje?
IA, amaldiçoada pelo overhype, e desqualificada pelas outras IA
Duas maldições pendem sobre a IA. Por um lado, a IA vai tornar tudo possível (a IA tem estado sempre amaldiçoada pela sobrexcitação). Por outro lado, tudo o que já foi alcançado não vale nada. Adicionalmente, a IA é bipolar. Às primaveras de excitação seguem-se os invernos da desilusão. Em 1969, a publicação de “Perceptrons”, por Minsky e Papert, congelou as redes neuronais durante décadas. No início dos anos 1990, após o colapso dos grandes investimentos em sistemas periciais, colocar IA no currículo era suicida. “Isso não é IA” é uma sentença tenebrosa que qualquer ator neste campo já teve de contestar.
A IA ameaça a espécie humana?
A inteligência ou a ausência dela não parecem estar correlacionadas com a sobrevivência de nenhuma espécie. Muitos animais, plantas, bactérias, ou vírus prosperam sem inteligência. E conseguem transmitir o que aprendem aos seus descendentes. Até, como provam os animais domésticos e de estimação, a dependência de outra espécie, mais inteligente, não conduz à extinção. Contudo, a inteligência centralizada parece bastante perigosa. Felizmente, a inteligência humana está muito mais bem distribuída que os Large Language Models (LLM).
A regulação não é neutra
A regulação de qualquer atividade não é neutra. Um grupo de líderes do sector tecnológico assinou recentemente uma declaração conjunta a alertar que a IA pode levar à extinção da Humanidade. Sendo líderes tecnológicos, todos os subscritores deveriam também assinar uma declaração de conflito de interesses. E, uma vez que nada os impede de ser eticamente responsáveis nas suas ferramentas de IA, especificar por que querem regular a IA dos outros. Para recuperar competitividade, para atrasar a concorrência, para proteger os seus investimentos noutros domínios?
A disrupção tecnológica também não é neutra
Como sempre, haverá ganhadores e perdedores com a disrupção tecnológica. De forma menos evidente, mas certamente perdedoras são as plataformas de low-code que funcionam com código proprietário ou sem código. Através de assistentes de código (Co-Pilots) ou de processos mais sofisticados, como o Genio da Quidgest, a IA generativa está a alterar profundamente o processo de criação de software. Mas a IA generativa usa grandes repositórios de linguagens comuns e de código aberto e em nada beneficia as plataformas fechadas de low-code ou os seus utilizadores.
Antropomorfizar para isentar os humanos de responsabilidades
A IA é frequentemente antropomorfizada: o GPT evita, pretende, simula, detesta… Esta autonomização, na prática, expurga a IA da responsabilidade humana. Mas será a responsabilidade do algoritmo ou do conjunto de humanos que está por trás do algoritmo e da sua utilização?
Não apenas quem o criou, mas também quem o treinou, quem o usou e como, e, sobretudo, quem aceita as suas conclusões.
Os humanos têm uma tradição de se esconderem atrás dos seus deuses fugindo às suas próprias responsabilidades.
O mais perigoso da IA já está connosco há uns anos
A terceira vaga da IA, o Machine Learning, foi muito mais perigosa do que a IA generativa. Usada nas redes sociais, foi e é responsável pelo extremar de posições na sociedade, ao apenas mostrar às pessoas aquilo que elas mais gostam de ver. Usada para o reconhecimento facial, suportou e suporta a vigilância totalitária. Usada na aviação, causou dois acidentes gravíssimos e centenas de mortes. Teve como máxima “para que precisamos de explicar, se somos tão bons a prever?”. Muito mais perigosa, mas não mereceu tanta precaução.
Prémios de consolação para os humanos
A IA (os humanos por trás da IA) tendem a conceder uma espécie de prémio de consolação aos humanos: continuam a ser importantes porque as suas competências, como perseverança, criatividade e outros aspetos não são replicados pela ferramenta ou pela tecnologia. Alimentam a competição direta entre o homem e a ferramenta, o que nunca foi o caso com qualquer invenção humana.
Os humanos não concorrem com as ferramentas
Sempre que uma ferramenta criada por humanos supera um humano, a competição divide-se em dois. Apesar do Deep Blue, continua a haver um campeão mundial de xadrez. Mas há também uma competição para o software que melhor joga xadrez. Há competição para a corrida de humanos, para a corrida de bicicletas, para a corrida de automóveis. Continua a haver uma competição para a melhor IA baseada em LLM.
Caraterísticas essencialmente humanas. Serão mesmo?
Um dos prémios de consolação é o de que caraterísticas como a empatia são essencialmente humanas. Ora, avaliada num congresso de médicos, a empatia do Chat GPT na conversação com doentes foi considerada superior à dos próprios médicos. Parece que, talvez até mais facilmente do que a inteligência, outras caraterísticas “exclusivamente” humanas poderão ser imitadas. Empatia pode ser mais fácil de reproduzir do que a inteligência, mas tal também será verdade para a antipatia. Cuidado com as características essencialmente humanas.
A IA como companheira de trabalho
Tínhamos visto um vislumbre no fabuloso “Her”, com a Scarlett Johansson, mas o ChatGPT funciona como um companheiro de trabalho, a quem não tememos colocar dúvidas e a quem pedimos opiniões. É muito mais do que um recurso para fazermos batota.
É a própria IA que inflaciona os perigos da IA
Apesar de parecer um movimento que emana de políticos, tecnólogos e líderes de opinião, o maior evangelista sobre os perigos da IA é o próprio Chat GPT. Não nos esqueçamos que é um influenciador para dezenas de milhões de pessoas em todo o mundo. E sempre que se toca ao de leve no assunto, diz qualquer coisa como “A IA tem um enorme potencial para beneficiar a sociedade, mas também levanta questões éticas, sociais e económicas complexas que precisamos encarar.” Os advogados da limitação da IA podem estar apenas a ser preguiçosos, ao não questionarem ou ao sobrevalorizarem estas sentenças.
Na realidade este pode ser um excelente exemplo de como a IA manipula a humanidade, devendo por isso ser regulada.
Se o treino é tão relevante, o que se sabe sobre ele?
Assustador é o que não se sabe sobre o treino e os modelos de recompensa usados pelos LLM. Em que consiste o treino? O que é recompensado, como e por quem? Quanto tempo demora? Que outros treinos estão a ser realizados? De que depende a qualidade do treino?
Destruição criativa
Deitámos fora, isto é, desvalorizámos, uma série de competências humanas que tínhamos antes do ChatGPT 3.5. Irá o próximo passo da IA generativa desvalorizar o prompt engineering que estamos a aprender a dominar agora?
O conhecimento coletivo aumenta com esta IA?
O acervo coletivo do conhecimento da humanidade até pode sofrer uma desaceleração, por cada vez mais os novos conteúdos serem apenas uma combinação sofisticada de conteúdos já existentes. Mas seria absurdo pensarmos que o processo de aquisição de conhecimento pela humanidade está concluído. Já atingimos os limites dos LLM, uma vez que estes dependem dos conteúdos disponíveis?
Travar a IA não é inteligente
Travar a IA não é inteligente. Os investigadores da IA generativa querem realizar o seu potencial agora, e pelas suas mãos, não daqui a 100 anos. Dedicaram muito trabalho a este objetivo, querem ter impacto, fazer avançar a ciência, obter o reconhecimento dos seus pares. Durante o seu tempo de vida. Depois, é demasiado tarde.
É inteligente parar a inteligência?
Se a inteligência se define como busca de conhecimento, como procura constante por saber mais, parar essa dinâmica é, por definição, não inteligente.
A regulação vai estar sempre atrás da investigação
A União Europeia tinha um conjunto de normas preparadas para lidar com a IA e bastou o Chat GPT 3.5 para obrigar a reformular tudo. O alcance da regulação não foi compatível com o ritmo de aceleração e com a disrupção da IA generativa. É muito provável que esta diferença de velocidades se mantenha no futuro.
AI-First startups
Na Europa, a grande preocupação é a regulação. Nos Estados Unidos, pensa-se sobretudo no potencial. Em Sillicon Valley, antes do ChatGPT 3.5 havia 80 startups focadas em IA generativa e hoje, passados seis meses, há 8000. Todas as startups passaram a querer ter alguma coisa a ver com IA generativa ou conversacional. Em Portugal, apesar da dezena de empresas com créditos firmados em IA (Feedzai, Unbabel, Quidgest, Priberam, DefinedCrowd, Talkdesk, etc.) não se vê que já exista nas startups esta pressão para adotar esta tendência. A incubadora da Quidgest, que brevemente será anunciada, pretende dar um empurrão nesse sentido.
GPT 3.5 uma surpresa mesmo para quem mais acompanhava a IA
Um testemunho mais pessoal: Nasci no mesmo do ano do Perceptron, a rede neuronal mais simples. Há 35 anos que acompanho a investigação em Inteligência Artificial, com o pioneiro Helder Coelho, e o ChatGPT excede totalmente as melhores expetativas. Há seis meses atrás, a maioria dos investigadores duvidava se alguma vez o teste de Turing seria ultrapassado. Agora, para mim, é evidente que foi. Mas se aprendemos alguma coisa com a história da IA é que “se já foi feito, já não é IA”. Já há quem diga que ainda não foi desta.
No software, não é o GPT o disruptor
Ao mesmo tempo a excitação que acompanha os Assistentes de Código (Co-Pilots) é totalmente imerecida.
É possível, o Genio da Quidgest fá-lo, não gerar apenas pequenos bocados de código e após várias iterações, mas centenas de milhares de páginas de uma só vez.
Também é necessário, e mais uma vez o Genio fá-lo, gerar código 100% correto. Uma solução de software que não esteja totalmente correta está errada.
E, finalmente, quanto à produtividade, qual o sentido de aproximar o ritmo de escrita da IA do dos programadores humanos, uns 3 carateres por segundo, quando as máquinas escrevem facilmente dois milhões de carateres por segundo?