Não há uma, mas muitas Inteligências Artificiais*
Sob a designação genérica de inteligência artificial (IA), agrupam-se tecnologias e práticas muito diversas e com impactos muito diferentes nas nossas vidas.
Na realidade, há muitas IA e não se dão bem umas com as outras. Acompanhando a sua evolução ao longo dos últimos 70 anos, o que é sempre prudente para não cair nas armadilhas da moda, percebe-se que as diferentes IA até se hostilizam, com cada vaga a referir-se de forma depreciativa à vaga anterior e a ter uma perspetiva substancialmente distinta.
Nos anos 1950, o objetivo era imitar a inteligência humana. De uma forma que depois pareceu ingénua, cabia tudo o que fosse imaginação e expetativas na GOFAI (Good Old-Fashioned AI).
Nos anos 1980, o objetivo era encapsular o conhecimento humano em sistemas periciais (Expert Systems). Estes sistemas tomavam decisões baseados em regras previamente definidas e usavam motores de inferência para, através de lógica, chegar a conclusões transparentes e explicáveis.
Nos anos 2010, o foco foi a aprendizagem (Machine Learning e Deep Learning). Se a máquina não aprendia, não era IA. Podia treinar-se, mas ficava mal ensinar regras à IA, como os sistemas periciais tinham feito na vaga anterior.
Atualmente, a IA atingiu níveis superiores nas capacidades conversacionais e é, por fim, mais sábia na utilização das anteriores descobertas da IA. Com o ChatGPT e pela primeira vez, a IA supera o teste de Turing, formulado em 1950. E não desdenha de conciliar o rule-based com o deep learning. A IA conversacional beneficia dos desenvolvimentos, quer da aprendizagem automática (para a compreensão da linguagem), quer da IA baseada no conhecimento (para raciocínio e explicação), permitindo interações com humanos que surpreenderam e entusiasmaram toda a gente.
Em poucos meses, a IA conversacional (ou generativa) proporcionada pelo GPT aniquilou o Machine Learning e por um conjunto de boas razões: um conhecimento enciclopédico, capacidade de criar conteúdos e não de fornecer apenas respostas limitadas a um número reduzido de opções (sim ou não, gato ou cão, um número de 0 a 100), modelos estruturados de respostas e, é importante realçar, humildade e empatia.
A humildade do GPT é um atributo muitíssimo relevante que deverá ser um elemento essencial no futuro processo de regulação da IA. Quanto à empatia, avaliado por médicos, o GPT foi considerado mais empático na comunicação com os doentes do que os próprios médicos. Ora empatia era, até há seis meses, algo que toda a gente apostaria só os humanos poderiam possuir, sendo imbatíveis pelas máquinas.
Note-se que é conscientemente que se refere GPT em vez de LLM porque, talvez por não saberem dosear tão bem os ombros dos gigantes sobre os quais se apoiaram, não existem, por agora, outros LLM no mesmo patamar (de inteligência) do GPT.
A IA está amaldiçoada por bullying e por excesso de otimismo
O que é e o que não é IA é a discussão mais estéril e inútil desta disciplina. O conceito de IA é redefinido e trabalhado em cada vaga, em função do que é a tecnologia dominante no momento. Guardiães da pureza do conceito mudam os requisitos de acordo com os seus interesses. Dimensões como rastreabilidade, determinismo, aleatoriedade, aprendizagem, explicabilidade, supervisão, linguagem natural, ou representação gráfica, entram e saem dos argumentos. A IA ora se requer determinística ou probabilística, mais força bruta (dados e poder de computação) ou mais inteligente, mais ou menos dependente de feedback/supervisão de humanos, oferecendo maior ou menor explicação, tendo maior ou menor consciência (entendida como capacidade de autoavaliar os resultados que fornece). Se é narrow, devia ser general. Se é general devia ser superinteligente. Tudo é motivo para intimidação e exclusão.
De uma forma geral, se já foi atingido, deixou de ser IA. Se não é da minha área de investigação, também não é IA. Não sendo ingénuos, temos também de reconhecer que existem técnicas de IA dominantes promovidas pelos seus maiores investidores, que nunca as denigrem. E é muito conveniente para os fornecedores de serviços na cloud que a IA atual, do GPT e dos LLM, exija volumes de computação e de armazenagem gigantescos e centralizados.
O espaço para o bullying, para a especulação e para o excesso de otimismo de cada primavera da IA é enorme porque, com uma honrosa exceção, todos os conceitos que são o objeto de investigação da IA são demasiado amplos e subjetivos. Definições rigorosas e universalmente aceites de “inteligência”, de “aprendizagem” ou de “capacidades conversacionais” não existem. A exceção é a lógica, o conhecimento e o processo científico de acumulação de conhecimento, que constituíram o alvo da investigação dos sistemas periciais, da segunda vaga.
Para sermos sérios neste debate, temos de usar critérios que perduram ao longo de décadas e estão acima das modas, como o teste de Turing. Que, pela primeira vez, foi passado com sucesso pelo ChatGPT3.5, no final de 2022. Há que reconhecer o mérito.
A Inteligência Artificial generativa começou há 30 anos
As histórias recentes – e sabe-se quão enviesada a Internet é para o mais recente – iniciarão a IA generativa (GenAI) com a fundação da OpenAI em 2015 ou com o “Attention Is All You Need” de 2017 ou mesmo com o ChatGPT no final de 2022.
Mas a IA generativa não começou agora. Embora com caraterísticas muito diferentes do que atualmente se considera IA generativa, já era bastante elevada a capacidade dos sistemas periciais dos anos 1980 para gerar conteúdos longos, embora a um custo de explicitação de conhecimento que se revelou geralmente proibitivo.
No entanto, há uma exceção, e economicamente relevante: o desenvolvimento de software. Quem apostou na continuidade da investigação dos sistemas periciais para gerar sistemas de informação complexos possui uma vantagem sustentável e não ultrapassada pela atual IA generativa. Os sistemas periciais criam muito mais código que o GPT e criam-no muito mais rapidamente que o GPT. Os ganhos são na ordem de 1 para 100 000.
Adicionalmente, pode-se juntar a capacidade de gerar código dos sistemas periciais, a jusante no processo de desenvolvimento, com o conhecimento universal e a exploração conversacional de opções do GPT, a montante deste processo.
A IA generativa já é oito vezes mais produtiva do que as plataformas de low-code, a anterior vanguarda da engenharia do software. E pode passar a ser vinte vezes mais produtiva com esta simbiose com o GPT.
A limitação do avanço da Inteligência Artificial é absurda
Face aos progressos recentes da IA, tem-se falado muito sobre a sua regulação e a limitação do seu progresso. Ora, proibir os avanços da ciência é inútil e absurdo. Por cada nostálgico, haverá dezenas de empenhados na investigação que dizem “queremos fazer acontecer a IA agora, não daqui a cem anos, e pelas nossas mãos”.
É mais do que compreensível. A vida humana é limitada, acelerarmos o futuro é a nossa oportunidade de o experienciar.
Há uma alternativa racional à proibição ou condicionamento do avanço da IA: proibir (impedir talvez não seja suficientemente forte para mostrar a determinação) a ignorância da população em geral sobre a IA. Da mesma forma que se impede que a população em geral não saiba sobre escrita, aritmética, reciclagem, alterações climáticas, direitos dos trabalhadores, integração europeia, funcionamento da democracia, ou código da estrada.
Uma sociedade conhecedora estará mais bem preparada para lidar com os potenciais riscos da IA.
Os riscos da Inteligência Artificial não são apenas potenciais, já estão connosco
Vários exemplos podem ser apresentados para nos consciencializarmos das consequências da inteligência artificial que já são evidentes nas nossas vidas:
- Os desastres dos Boeing 737-800 Max
- Os algoritmos das redes sociais
- O facilitismo das respostas automáticas
- Os “caprichos” do que não se percebe como funciona.
Os desastres dos Boeing 737-800 Max
Quando, no final de 2018 e no início de 2019, dois Boeing 737-800 Max caíram, matando centenas de pessoas, poucos viram nesta queda uma ameaça da inteligência artificial. No entanto, ambos os aviões caíram pelas mesmas razões, e todos os sinais a que devíamos estar mais atentos sobre os perigos da IA estavam presentes nestas catástrofes:
- O algoritmo decidiu com base em inputs errados, que não verificou de forma autónoma.
- O algoritmo não comunicou, nem interagiu, com os pilotos, nem com nenhuma torre de controlo, assumindo diretamente o comando dos aviões.
- O algoritmo não sentiu a necessidade de justificar as suas decisões e ações.
- O algoritmo não incorporava um modelo de conhecimento adequado, conhecimento que lhe teria permitido, por exemplo, considerar a distância em relação ao solo como um fator relevante na decisão de baixar o nariz, naturalmente inócua a 30 000 pés de altitude, mas não a 1000 pés.
Tudo o que de mau se pode esperar da IA no futuro esteve já presente nestes acidentes (na realidade, não podemos considerar acidente um algoritmo que foi executado exatamente como foi desenvolvido). E, contudo, a IA aprendeu pouco com estes desastres fatais, apesar de todo o mediatismo.
A IA aprenderá se a sua regulação vier a requerer, sempre, a existência de um modelo de conhecimento. Este poderá ser explícito ou implícito num processo similar ao reinforcement learning através de feedback humano que possibilitou o sucesso do ChatGPT.
Os algoritmos das redes sociais
Com efeitos perversos muito mais duradouros temos convivido com os algoritmos das redes sociais (como Facebook, Twitter ou Telegram), de pesquisa, da comunicação social e dos serviços de streaming (como YouTube ou Netflix). Agradecemos quando cada um destes nos dá a ler ou a escolher mensagens, ideias e conteúdos com que simpatizamos, ou que ouvimos com prazer.
Progressivamente, nós e os nossos amigos passamos a só ouvir o que gostamos e ignoramos totalmente tudo o resto. Mas, do outro lado, há um conjunto de pessoas que também só acedem ao que gostam e a quem o algoritmo faz rejeitar tudo o resto.
Qual o efeito esperado de, continuadamente, cada grupo apenas receber ideias o mais próximas das suas, ou ser convidado a seguir pessoas que pensam exatamente como ele, ou de lhe só serem sugeridos filmes, séries ou músicas de que gosta? E de lhe serem propostos mecanismos (likes e comentários) que vêm reforçar a sua sensação de identificação com o seu grupo e até aguçar as suas manifestações mais agressivas?
Temos, neste momento, umas dezenas de anos de subordinação a estes algoritmos e o seu efeito nas sociedades é visível. A proximidade, a racionalidade ou a objetividade, cederam lugar à desinformação e a posições extremadas, como se pode ver nas eleições nos EUA, no Brasil, na Turquia, no Brexit, na invasão da Ucrânia, mas também no clubismo. Muitas vezes são comportamentos totalmente acéfalos, mas que são um resultado direto da “inteligência” da IA.
O facilitismo das respostas automáticas
Os algoritmos estão a condicionar as organizações no sentido do facilitismo. Atualmente, se recebemos uma mensagem numa rede profissional ou num canal de conversa empresarial de alguém a dizer que não conseguiu cumprir os seus compromissos ou as suas tarefas, as sugestões de resposta automática podem muito bem ser “Ok”, “Sem problema”, “Compreendo”.
Que organizações teremos no futuro, quando a responsabilização for só uma memória distante?
Desmistificar a Inteligência Artificial
Desconhecer as técnicas subjacentes ao ChatGPT favorece a adoção ou a rejeição primária, mas é extremamente perigoso para a sua utilização.
Quando se consultam artigos científicos sobre o ChatGPT (no arXiv) é frequente ler-se que o ChatGPT “inventa”, “alucina”, “tem pavor a não dar respostas”, “adora detalhar o conceito”, ou “recusa responder ao que julga que não sabe”.
Para evitar a compreensão de todo o processo, tokenization, pretraining, base model, supervised fine-tuning, reward modelling e reinforcement learning from human feedback, simplesmente dota-se o ChatGPT de uma vontade própria. É visto como uma entidade independente, com personalidade e caprichos.
Manter a IA generativa, como o GPT ou o Genio, no domínio científico e não emocional requer a sua desmitificação. Será demasiado tarde para isso?
A adoção da Inteligência Artificial generativa determina a competitividade
A classificação proposta por Everett M. Rogers em “Diffusion of Innovations” determina a capacidade inovadora das pessoas, das empresas e dos países.
Hoje, maio de 2023, a adoção da IA generativa com o GPT determina a competitividade dos profissionais nas organizações:
- Inovadores: Já acompanhavam o GPT antes do ChatGPT 3.5. Agora, exploram a API e os Plugins e outros LLM.
- Early Adopters: Foram testar o ChatGPT na primeira semana. Já não fazem nada (textos, reuniões, código) sem o GPT 4.
- Maioria Precoce: Começaram a usar o GPT para redação automática de textos ou para a elaboração de atas. Nem sempre conseguem colocar boas questões.
- Maioria Tardia: Usam por curiosidade, mas não para fins profissionais. Gastam mais tempo a descobrir falhas do GPT do que a aproveitá-lo.
- Laggards: Os retardatários, discutem ainda se o GPT é positivo ou negativo e, até, se é legal. Na dúvida, recusam-no por motivos éticos.
As empresas e as organizações deviam ser mais claras ao transmitir aos seus colaboradores que a posição perante o GPT define o profissional de hoje. Ser um utilizador competente nas questões e cauteloso na avaliação das respostas é a única perspetiva profissional válida.
Os trabalhadores e os dirigentes que pensam que o seu trabalho é provar que o GPT não os ajuda devem ser alertados que o seu trabalho está em risco.
E lembremo-nos do decreto do Conde Lippe que estipulava que os sargentos-mores do exército português deveriam saber ler e escrever porque os oficiais, sendo nobres, de tal estavam dispensados. As organizações não são bem-sucedidas se a hierarquia estiver invertida em relação ao domínio do conhecimento.
Uma avaliação rápida da sua organização
De acordo com Geoffrey A. Moore, em “Crossing the Chasm”, as empresas de tecnologia enfrentam um enorme desafio ao passar os seus produtos dos utilizadores iniciais (early adopters) para o mercado principal (mainstream). E é esta passagem que determina o seu sucesso. Ora o ChatGPT nem parou no abismo. O ChatGPT “cruzou o abismo” a uma velocidade estonteante. De repente toda a gente, mas mesmo toda a gente, estava a falar de IA e do ChatGPT.
Por isso, neste caso, não é a tecnologia que está a ser avaliada.
Mas podemos usar o modelo do “Crossing the Chasm” para rapidamente obter uma métrica do sucesso de uma organização face à disrupção tecnológica da IA generativa, através dos níveis da sua difusão interna.
As organizações não seguem a distribuição da generalidade da população. Não têm necessariamente 2,5% de inovadores e 16% de retardatários. Algumas têm uma maioria de inovadores e early adopters o que lhes permite criar e manter vantagens competitivas. Outras são lentas a adotar a inovação e já estão a declinar mesmo que não o saibam.
Perante uma alteração tão radical quanto a IA generativa, o défice competitivo é muito rapidamente visível. Quem não usa o ChatGPT para gerar conteúdos ou um sistema pericial como o Genio para gerar código, rapidamente vai tornar evidente o seu anacronismo.
Complementar GPT com conhecimento sólido
Criar modelos base (Large Language Models ou LLM) está ao alcance de meia dúzia de organizações em todo o mundo.
Porém, a inteligência e o conhecimento estão substancialmente mais bem distribuídos no mundo do que a capacidade de criar LLM.
Por exemplo, na engenharia de software, as lacunas que um GPT ainda não preencheu são as áreas em que os sistemas periciais para a geração de código construíram uma base sólida de conhecimento:
- sabem colocar as questões certas (são excelentes prompt engineers);
- produzem centenas de milhar de páginas de código e não apenas um número limitado de tokens;
- não alucinam e criam código 100% correto;
- e geram toda a solução numa só iteração.
O poder transformador da Inteligência Artificial generativa
Incorporar a IA Generativa na formação de jovens estudantes, nomeadamente na área da Engenharia de Software, proporciona-lhes uma valiosa exposição às tecnologias e métodos modernos de desenvolvimento, preparando-os efetivamente para ingressar no mercado de trabalho e tornar-se profissionais bem-sucedidos no campo.
Só temos de colocar os Ministérios da Educação e as escolas a sonhar ser o primeiro país do mundo em que desenvolver software está tão generalizado quanto saber escrever.
Pensem bem na diferença que efetivamente existe entre sair da escola como utilizador de YouTube, de Facebook ou de Office ou como profissional da transformação digital.
E sim, tem de se adaptar o ritmo da revisão dos currículos académicos à dinâmica da evolução da IA.
A Inteligência Artificial não vai criar desemprego
A Inteligência Artificial não vai criar desemprego, mas oportunidades. Podemos antever a aceleração da transformação digital em curso, em todos os domínios do conhecimento.
Podemos estar certos da progressiva substituição dos atuais profissionais, ainda não pela IA generativa, mas pelas pessoas que a dominam. Vamos assistir à automação de mais e mais tarefas criativas. E é expectável a democratização do conhecimento, nomeadamente com a possibilidade de requalificação de muito mais pessoas como criadores profissionais de software.
A prazo, a economia encarrega-se de regular. A curto prazo, e à escala pessoal, inevitáveis dramas vão acontecer. E é na capacidade de minimizar os impactos negativos da transição nos seus países que se distingue a qualidade dos seus governantes.
O que a IA conseguir fazer, vai fazer melhor. Quase de imediato, faz muito mais rápido e melhora a um ritmo muito mais acelerado que a progressão humana. Entre a humanidade e as máquinas não há um equilíbrio, há um complemento. Desde sempre, o instrumento define o humano. Temos a obrigação de deixar as máquinas fazer tudo aquilo que elas sejam capazes de fazer.
Os mais pessimistas, os ludditas da atualidade, podem estar descansados. Certamente não vamos ter um desemprego generalizado causado pela IA generativa.
Haverá mudança de profissões e de tarefas, mas, enquanto não soubermos tudo, haverá sempre trabalho na procura de conhecimento e, enquanto não formos eternos, haverá sempre trabalho nas ciências da saúde. E o mesmo acontece para objetivos nunca completamente alcançáveis como a proximidade social, o lazer, a justiça ou a eliminação da pegada ecológica.
É desta que vamos aproveitar uma revolução tecnológica
Finalmente, temos o impacto económico. Em Portugal, é provável que o impacto desta nova vaga da inteligência artificial seja infelizmente o mesmo do que o de qualquer outra revolução tecnológica anterior: corremos o risco de ser meros consumidores. E de nos endividarmos para pagar os produtos e serviços de inteligência artificial criados noutros países.
É assim pelo menos desde o fontismo, há 150 anos. A relação que o país tem com o desenvolvimento tecnológico oscila entre a adoção, por compra no exterior, e a rejeição.
A adoção por importação conduz a endividamento e dependência. A rejeição tem um impacto ainda mais negativo, o subdesenvolvimento.
O que poderia ser um cenário alternativo depende da questão: na ordem económica internacional alterada pela nova geração da IA, que papel desejamos para o nosso país? E o cenário desejável seria crescimento baseado em conhecimento, valorização do mérito, aplicação rápida dos resultados obtidos e integração profunda nas redes de criação de valor associadas à IA generativa.
Este cenário requeria que os líderes de opinião em Portugal deixassem de pensar enquanto consumidores, enquanto empregados por conta de outrem ou meros leitores de jornais e passassem a ser atores comprometidos e a discutir visões estratégicas para o nosso futuro comum. Temos mais uma oportunidade de o fazer!
*Este artigo integra o livro “88 Vozes sobre a Inteligência Artificial”, que pode ser adquirido no Iscte Executive Education e em www.leyaonline.com.