IA generativa híbrida: o despertar de um Super Genio
Definida como a “a ciência e engenharia de fazer máquinas inteligentes”[1], por John McCarthy, ou “o ramo da ciência da computação que se ocupa da automação do comportamento inteligente”[2], segundo Nils J. Nilsson, a Inteligência artificial (IA) não é uma entidade única, mas um vasto espectro de tecnologias e abordagens.
Desde os seus primeiros passos, a meio do século XX, a IA foi idealizada para imitar as capacidades humanas de raciocínio e aprendizagem, capacidades essas corporizadas no conceito de “inteligência” popularizado por Alan Turing – e essencialmente baseado num comportamento observável e na capacidade de uma máquina ou sistema realizar uma tarefa de maneira que seja indistinguível da realização dessa tarefa por um ser humano.[3]
Desde então, a história da IA tem sido uma narrativa de ambição, inovação, colaboração e competição global. Mas uma narrativa não-linear, já que experimentou (e continua a experimentar) as suas próprias vagas ou estações: períodos de primavera[4], cheios de otimismo, investigação e investimento, seguidos de invernos rigorosos carregados de ceticismo e uma certa hibernação intelectual. Estas flutuações refletem o ciclo natural dos avanços tecnológicos, onde cada primavera traz consigo novas promessas de transformação e cada inverno oferece uma pausa para reflexão e renovação.
A Conferência de Dartmouth, em 1956, reuniu um grupo de visionários, incluindo John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, que começaram a delinear a ideia de máquinas pensantes — não como rivais da humanidade, mas como extensões e ferramentas que amplificariam o intelecto humano, numa simbiose entre neurónios e circuitos, entre carbono e silício.
Desde logo, duas correntes de IA se revelaram, uma entendendo que a inteligência decorria da lógica (IA simbólica) e outra defendendo que a inteligência seria obtida se conseguíssemos simular o comportamento do cérebro humano (IA neuronal ou sub-simbólica). Estas duas correntes, a IA simbólica e a IA neuronal, têm-se mantido e digladiado até agora, apesar de alguns pensadores – como Pedro Domingos, com o seu “Master Algorithm” best seller – explorarem a possibilidade de uma fusão.
No início, a IA simbólica dominava. Contudo, é deste período o Perceptron de Frank Rosenblatt em 1957, que foi o pioneiro da IA neuronal e de todos os algoritmos de Machine Learning. Com a crítica demolidora de Marvin Minsky e Seymour Papert, em “Perceptrons”, publicado em 1969, e sobretudo com a prematura partida de Rosenblatt em 1971, aos 43 anos, a IA neuronal entrou num período de estagnação de quase 40 anos.
Por seu turno, a IA simbólica da década de 1960 fez nascer o ELIZA, uma criação de Joseph Weizenbaum. Com base em regras (por isso, IA simbólica), este primeiro “terapeuta” artificial, com capacidade de realizar conversas rudimentares em linguagem humana, representa um dos primeiros marcos no processamento de linguagem natural e foi o grande precursor dos sistemas de consulta e aconselhamento online automatizados que conhecemos hoje.
Nos anos 1970, após as expetativas inflacionadas depositadas na IA não terem sido correspondidas, o primeiro inverno da IA foi marcado por críticas e cortes de financiamento. O Relatório Lighthill, em 1973, e o abandono de sistemas baseados em linguagem natural como o SHRDLU são exemplos disso).
No entanto, inovações como o sistema MYCIN de 1974 demonstraram o potencial da IA em áreas específicas como diagnóstico médico, sinalizando que, apesar dos desafios, a IA tinha aplicações práticas valiosas. Este sistema permitiu uma melhoria significativa na forma como são tomadas decisões clínicas, no diagnóstico de doenças infeciosas, bem como recomendação de medicamentos com a dosagem correta. Nascido no ambiente académico da Universidade de Stanford, o MYCIN marcou o início da utilização da IA na área da saúde.
A década de 1980 é frequentemente vista como a segunda primavera da IA. A pesquisa e o financiamento em IA durante esse período continuaram a ser orientados para a IA simbólica, isto é, para os sistemas periciais baseados em regras, para a inferência e para a programação em lógica. Destacou-se, nesta altura, o projeto da Quinta Geração de Computadores da grande potência industrial da altura, o Japão, que procurou desenvolver computadores capazes de raciocínio e compreensão similares aos humanos.
Neste período, o interesse na IA foi também muito impulsionado pela democratização permitida pelo surgimento dos computadores pessoais. Era comum, na altura, entre os entusiastas e curiosos da computação, haver quem experimentasse o potencial de um Turbo Prolog, lançado em 1986, para aplicações práticas profissionais. A década de 1980 foi o verdadeiro início da revolução digital do nosso tempo.
Comparativamente subfinanciada e sujeita às limitações tecnológicas da época, a IA neuronal registou mesmo assim um avanço importante, com a invenção do algoritmo de backpropagation (retropropagação) por volta de 1986, que foi publicado por David E. Rumelhart, Geoffrey E. Hinton e Ronald J. Williams. Este algoritmo permitiu que redes neuronais com múltiplas camadas ocultas aprendessem efetivamente, ajustando os pesos das conexões com base nos erros calculados entre as saídas esperadas e as saídas reais, e superando as críticas (pode até apelidar-se de bullying) de Minsky e Papert. A retropropagação tornou possível treinar redes neurais profundas de maneira eficiente, abrindo caminho para o desenvolvimento de sistemas mais sofisticados. Só faltava a capacidade computacional. Tenha-se em conta que um computador no final dos anos 80 era milhares de milhões de vezes mais lento, em termos de operações por segundo, que um de 2024.
Mais uma vez amaldiçoada pelo excesso de expetativas, a IA entrou novamente em hibernação durante as décadas de 1990 e 2000. Na realidade, a IA teve um papel secundário durante este período. Até o excesso de expetativas passou da IA para a Internet e a bolha das dot.com passou ao lado da IA.
Um pouco à margem, as aventuras da IA, simbólica, continuaram em 1997, quando o supercomputador Deep Blue e o ex-campeão mundial Garry Kasparov se encontraram no tabuleiro de xadrez. O duelo, altamente mediático, catapultou pontualmente a IA para o centro das atenções globais, demonstrando a sua aplicabilidade e eficácia em atividades tradicionalmente vistas como domínios exclusivos da inteligência humana.
E, do lado da IA neuronal, também houve avanços, na altura despercebidos do grande público. As CNN (Redes Neuronais Convolucionais) modernas, baseadas no Neocognitron de Fukushima de 1980[5], particularmente a aplicação de Deep Learning para tarefas de visão computacional, foram popularizadas por Yann LeCun[6] em 1989, com a introdução do LeNet-5, uma rede projetada para reconhecimento de dígitos manuscritos. E as RNN (Redes Neuronais Recorrentes), que tinham sido introduzidas nos anos 1980, em particular com o trabalho de Hopfield em 1982[7], como redes com estados que se desenvolvem ao longo do tempo, beneficiaram da introdução de mecanismos como Long Short-Term Memory (LSTM) por Hochreiter e Schmidhuber em 1997, tornando-se fundamentais para o processamento de sequências de dados, como texto e áudio.
Quando a poeira das dot.com assentou, após lições aprendidas (terão sido?) sobre gestão de riscos e especulação, ficou um legado muito importante para o futuro da IA: o potencial transformador da Internet, uma segunda revolução dentro da revolução digital.
O ImageNet, uma extensa base de dados de imagens, disponibilizada na Internet em 2009 e estruturada de acordo com uma base de dados linguística, a WordNet, que organiza as palavras (e os objetos representados) de uma forma hierárquica (ex: rafeiros e dálmatas são cães; e cães estão, por sua vez, sob a categoria mais geral de animais) ou semântica (por exemplo, a polissemia de cão, que pode significar animal, constelação, pessoa vil ou, até, mecanismo de percussão de uma pistola) marca o novo despertar da IA, desta feita quase exclusivamente focada no neuronal.
Foi a vez da vingança da IA neuronal, isto é, do Machine Learning (ML), do Deep Learning e das redes neuronais. Tudo o que estava associado à IA simbólica – sistemas periciais, sistemas baseados em regras – passou a ser excluído pela nova fação dominante como não sendo sequer Inteligência Artificial.
Durante a década de 2010, esta nova IA começou por ser discriminativa, isto é, treinada para realizar tarefas de classificação ou previsão. São exemplos relevantes os sistemas de recomendação (de Netflix, Amazon, Spotify, etc.), os tradutores automáticos, os corretores ortográficos, os assistentes virtuais em linguagem natural (Siri, Alexa), os sistemas de reconhecimento de fala, os leitores de expressões faciais ou a condução autónoma.
Em particular, o ML revolucionou a visão computacional, permitindo que máquinas “vissem” e interpretassem o mundo com uma precisão até então inédita, tornando possíveis gestos simples do nosso dia a dia como o reconhecimento facial para desbloquear smartphones. Mas os perigos da IA neste domínio tornaram-se evidentes com o programa de vigilância da China.
A introdução de assistentes virtuais marcou a chegada da IA às nossas casas. Com a capacidade de responder a comandos de voz e realizar várias tarefas – desde criar lembretes até controlar sistemas de automação/domótica, Siri (Apple, 2011) e Alexa (Amazon, 2014) não só demonstraram o potencial prático da IA, como a tornaram uma presença familiar e acessível, embora também não isenta de riscos. Siri e Alexa são exemplos de sistemas híbridos em que IA discriminativa é usada para identificar os pedidos e IA generativa é usada para obter respostas.
As Redes Generativas Adversariais (GAN) – em que duas redes neuronais, uma geradora e uma discriminadora, são treinadas simultaneamente num jogo adversarial – aparecem em 2014, por Ian Goodfellow et al[8]. A rede neuronal geradora tenta produzir dados que sejam indistinguíveis dos reais, enquanto a discriminadora tenta distinguir entre dados reais e os gerados pela geradora. Este processo iterativo de aperfeiçoamento veio possibilitar a criação de conteúdo visualmente impressionante (dos hologramas e outros cenários de realidade virtual aos deepfakes).
Em 2017, entram em cena os Transformers[9] e tudo muda. Antes da chegada dos Transformers, a IA já havia testemunhado avanços significativos. Contudo, a introdução dos Transformers não foi apenas um marco, foi uma verdadeira revolução que redefiniu as fronteiras do possível. A IA encontrou a chave para a linguagem humana, um salto civilizacional que a capacitou para entender e produzir textos, imagens ou sons com uma precisão e fluidez sem precedentes.
A inovação trazida pelos Transformers abriu o caminho para o desenvolvimento de modelos de linguagem altamente avançados. O GPT (Generative Pre-trained Transformer) apareceu primeiro, com a sua primeira versão, GPT-1, a ser introduzida pela OpenAI em junho de 2018. O BERT (Bidirectional Encoder Representations from Transformers), desenvolvido pela Google, foi apresentado alguns meses depois, em outubro de 2018. Ambos os modelos marcaram avanços significativos no campo do processamento de linguagem natural, mas o GPT foi o pioneiro entre esses dois modelos transformadores influentes.
A progressão do GPT-1 para o GPT-3 representa uma trajetória de desenvolvimento notável na história do Processamento de Linguagem Natural e da inteligência artificial, marcada por avanços consistentes em capacidade, complexidade e aplicabilidade. O GPT-1, em 2018, tinha 117 milhões de parâmetros. O GPT-2, em 2019, tinha 1500 milhões de parâmetros. O GPT-3, em 2020, passou para 175 000 milhões de parâmetros.
Mas os avanços foram muito mais do que quantitativos. A incorporação de técnicas de aprendizagem baseadas em feedback humano, conhecidas como Reinforcement Learning from Human Feedback (RLHF), acrescentou as caraterísticas conversacionais que despertaram a humanidade para a IA, que, até aqui, tinha sido deixada para os especialistas.
A explosão de popularidade do ChatGPT, na última semana de novembro de 2022, marca o auge desta nova primavera da IA, com um modelo de linguagem que desafia as noções prévias sobre as capacidades de comunicação e geração de conteúdo. O rápido crescimento do ChatGPT, que atingiu 1 milhão de utilizadores em apenas 5 dias e ultrapassou os 100 milhões em dois meses reflete a globalização da IA, o interesse e o impacto na atividade económica em todo o planeta.
No entanto, à medida que avançamos por 2024, a discussão sobre a ética na IA e a necessidade de regulamentação são sinais da maturação desta primavera rumo (talvez) a um verão mais reflexivo. O mosaico de interesses e preocupações é grande e sublinha a complexidade da IA como um campo de estudo e aplicação global com nuances infinitas.
Na Europa, o foco tem sido fortemente colocado na ética da IA, com ênfase significativa na proteção da privacidade dos dados, transparência dos algoritmos e prevenção de enviesamentos, seguindo regulamentos como o RGPD. Nos EUA, as preocupações gravitam em torno de uma inovação e um desenvolvimento tecnológico mais desimpedidos, com a prioridade no avanço rápido e na liderança em IA, muitas vezes em detrimento das considerações éticas. Na China, o governo tem promovido uma rápida expansão da IA com tónica na segurança nacional e no desenvolvimento económico, o que tem levantando questões sobre a vigilância e o controlo social. Já o Japão e outros países emergentes, têm procurado equilibrar a inovação tecnológica com as preocupações sociais, como o envelhecimento da população ou a sustentabilidade.
Quidgest e fusão generativa neuro-simbólica
A Quidgest nasceu em 1988 e tudo começou com o ALFAIA – um sistema pericial, desenvolvido em PROLOG, para avaliação de investimentos agrícolas, que permitiu a Portugal dar um salto na produtividade dos técnicos envolvidos e na garantia da qualidade fundamentada na decisão (de 0,6 projetos, passou a ser possível avaliar, em média, 25 projetos por dia!). Logo depois, em 1990, surgia a plataforma de IA generativa Genio, capaz de gerar automaticamente a totalidade do código de uma qualquer solução de gestão complexa.
Esta história tem sido escrita não num ambiente laboratorial mas num ambiente industrial, sendo as soluções criadas pela IA generativa da Quidgest suporte do bom funcionamento de muitas grandes empresas, instituições públicas e governos. Pode, por isso, dizer-se que, apesar de Portugal figurar como um país periférico no cenário global da IA explicado anteriormente neste artigo, a Quidgest foi pioneira na utilização de IA generativa no domínio específico da engenharia de software.
Nascida sob o signo da IA generativa simbólica (baseada em raciocínio lógico e representação explícita de conhecimento), a Quidgest integra agora extensivamente, quer no processo de desenvolvimento, quer nas soluções que disponibiliza e desenvolve em Genio, a IA generativa neuronal – aquela que consideramos a grande disrupção do presente e que se destaca pela sua adaptabilidade e capacidade de aprender e interagir a partir de extensos conjuntos de dados.
Embora IA generativa simbólica e neuronal tenham as suas próprias forças e áreas específicas de aplicação, quando operam isoladamente, a combinação destas duas IA no desenvolvimento de software oferece uma oportunidade ímpar – e que está a ser aproveitada pela Quidgest desde o primeiro momento.
Esta nova abordagem híbrida à IA (também designada de neuro-simbólica, combinada ou simbiótica) abre um novo capítulo na história pioneira da Engenharia do Software Quidgest e destaca-se, não apenas pela sua capacidade para modelar e interpretar sistemas complexos (caraterística simbólica), como também pela sua sensibilidade superior à linguagem humana (caraterística neuronal).
Trata-se de uma sinergia que transforma o Genio da Quidgest numa ferramenta ainda mais completa, potencializando-a para dar respostas não apenas rápidas, lógicas e precisas (livres de erros), mas capazes de abrir caminho a uma inovação, eficiência e produtividade sem precedentes. A definição de requisitos é um exemplo. O GPT ajuda a estruturar as necessidades de uma organização numa área funcional, já de acordo com o metamodelo Genio, acelerando a única fase do ciclo de desenvolvimento de software que, na Quidgest, ainda não era automatizada. E abre a possibilidade de muito mais interessados serem criadores das suas próprias soluções para a transformação digital.
Mas muitos outros exemplos existem: documentação de sistemas, ajudas ao utilizador, chatbots, integração de conteúdos específicos de uma organização, geração de dados sintéticos para formação, baterias de testes, novas componentes de código, deteção automática de novos padrões, inteligência embebida sobre um processo ou negócio, melhoria da experiência de utilização por antecipação do objetivo do utilizador e muitos outros, que os nossos clientes e parceiros podem já começar a utilizar.
IA híbrida by Quidgest: uma vantagem competitiva
Embora pareça que os Large Language Models (LLM) como o GPT nivelam e distribuem conhecimento por igual, a verdade é que quem mais obtém vantagens competitivas na exploração desta tecnologia disruptiva é sempre quem mais sabe. Falamos dos estrategas experientes, dos storytellers criativos ou dos programadores mais inteligentes. Na modelação e geração automática de software, o conhecimento acumulado da Quidgest ao longo de mais de três décadas é garante:
1) de capacidade de moldar perguntas e interpretar respostas adequadamente;
2) de facilidade de integração em plataformas já pré-existentes (Genio e templates);
3) de compreensão das limitações e potencialidades dos LLM, permitindo maximizar a utilidade e minimizar riscos e erros.
São as competências, experiências e conhecimentos prévios que determinam o quão efetivamente os LLM são utilizados. E todas as áreas da Quidgest possuem enormes vantagens neste domínio.
Em resumo – a nossa abordagem generativa híbrida oferece o melhor dos dois mundos:
IA simbólica
Na Quidgest, toma a forma da plataforma Genio. É fiável, rastreável, forte em raciocínio lógico e representação explícita do conhecimento.
Usa o raciocínio dedutivo: Uma conclusão é válida se deriva de premissas já aceites.
Processa dados e conceitos com elevada precisão e consistência, fundamentada em princípios e regras claros, oferecendo respostas e análises confiáveis.
IA neuronal
Representada pelo Chat GPT, inspira-se no funcionamento do cérebro humano. É boa a reconhecer padrões em grandes conjuntos de informação.
Segue o raciocínio indutivo: Uma conclusão é válida se resulta da generalização de muitas observações.
É adaptável, aprende com os dados e ajusta-se com base nas experiências, evoluindo continuamente à medida que é exposta a novas informações e contextos.
O despertar do herói: o Super Genio
Como em qualquer epopeia, os verdadeiros heróis emergem da união de forças aparentemente antagónicas, mas que se complementam. E tal como os semideuses da mitologia, seres híbridos nascidos da união entre deuses e humanos, a solução mais promissora para o futuro da Engenharia do Software – pelo menos aos olhos inovadores da Quidgest – reside na fusão da IA generativa simbólica (plataforma Genio) com a neuronal (GPT-4 e outros LLM).
Recuando uns séculos até á época clássica: Hércules/Héracles, o lendário herói da mitologia greco-romana, filho de Júpiter/Zeus, o deus supremo, e Alcmena, uma mortal, é uma figura única que personifica tanto a força divina quanto a essência humana, tornando-se uma espécie de ponte entre os dois mundos. Esta combinação de atributos é o que o torna uma figura fascinante, capaz de realizar façanhas extraordinárias, ao mesmo tempo que permanece profundamente enraizado com a condição e experiência humanas. A natureza híbrida de Hércules é exemplificada pelos seus famosos 12 trabalhos, tarefas quase impossíveis que lhe foram impostas, cada uma exigindo não apenas força física colossal, mas também inteligência, criatividade, capacidade de (re)adaptação e até mesmo empatia.
Serve esta analogia mitológica para explicar que, tal como Hércules concluiu uma série de trabalhos impossíveis para o comum dos mortais, o Super Genio é capaz de responder a desafios urgentes e complexos de forma excecionalmente poderosa e disruptiva, ao aliar ao seu raciocínio lógico e representação do conhecimento simbólico, uma nova capacidade de aprendizagem adaptativa neuronal. Estamos perante uma plataforma verdadeiramente “sobrehumana” – que acelera o processo de geração de código de 4 carateres por segundo, típica da escrita manual, para uma velocidade impressionante de 1,8 milhões de carateres por segundo. Tudo isto aliado a uma produtividade[10] e precisão que transcendem igualmente as capacidades humanas.
A Quidgest abre assim caminho a práticas e resultados nunca antes imaginados pelas abordagens tradicionais ao desenvolvimento de software. Isto não só reduz radicalmente o time to market de novos lançamentos, como multiplica exponencialmente as possibilidades dos sistemas de gestão de informação, e redefine o papel e a missão estratégica dos software developers dentro das organizações, devido aos novos patamares de rapidez, produtividade e qualidade alcançados com a automação e o desenvolvimento generativo de software – que deixa mais tempo de qualidade para dedicar à compreensão e ao crescimento contínuo e sustentável de cada negócio.
[10] VARAJÃO, J., Trigo, A., & Almeida, M. (2023). “Low-code Development Productivity”. ACM Queue.
Genio da Quidgest é cerca de 10x mais produtivo
O artigo científico “Low-Code Development Productivity”, publicado na revista internacional AMC Queue, revela os resultados de um exercício laboratorial no qual foram comparadas três plataformas com diferentes níveis de codificação/automação – Django (code-based), OutSystems (low-code) e Genio (extreme low-code) – na criação e manutenção de uma mesma aplicação de software.
- O Genio da Quidgest demonstrou ser quase 10 vezes mais produtivo (9,823x) do que a plataforma de desenvolvimento code-based e 3 vezes mais produtiva (3,093x) do que a plataforma low-code, quando considerado o fator qualidade.
- O Genio necessitou apenas de 5,4 horas para criar e adaptar a aplicação do exercício, em comparação com as 47,9 horas requeridas pela plataforma code-based e as 15,8 horas da plataforma low-code. Ou seja: o Genio revelou-se aproximadamente 9 e 3 vezes mais rápido do que as code-based e low-code, respetivamente;
- O Genio também obteve os melhores valores na manutenção prolongada do software desenvolvido, não só garantindo como aumentando a qualidade da solução ao longo do seu processo evolutivo.
Precisão? Desejo concedido!
A plataforma Genio, consolidada no mercado global há quase 36 anos, destaca-se pela sua confiabilidade, rastreabilidade, raciocínio lógico e representação explícita do conhecimento – além da sua notável precisão.
A precisão é um atributo crítico em áreas como ciência, medicina, aconselhamento jurídico, decisões de investimento e produção de software. No entanto, a IA neuronal, quando usada isoladamente, carece desta precisão vital – embora modelos como o GPT sejam eficientes na criação de trechos de código, os mesmos não estão preparados ou equipados para desenvolver sistemas complexos, como um ERP (cuja arquitetura, desenvolvimento e implementação requer competências exímias de desenvolvimento de software, mas igualmente conhecimento profundo do negócio, para garantir que o sistema atende as necessidades operacionais, financeiras e regulatórias, entre outras, da organização).
A Quidgest possui já modelos bem definidos de processos (recursos humanos, vendas, gestão financeira, aprovisionamento, produção, ativos, estratégia, projetos, compliance, sustentabilidade, risco, qualidade, inovação, IT) e de negócios (incluindo saúde, banca, serviços empresariais, regulação e gestão pública). Ao interagir com o GPT, o Genio da Quidgest supera esta limitação e alia a capacidade exploratória universal de um LLM com a precisão requerida para a tarefa crítica de escrita de código – lembremos que basta um simples erro de digitação para comprometer um sistema inteiro!
Abraçar o futuro com otimismo
Com toda a sua experiência em IA generativa simbólica, a Quidgest posicionou-se na vanguarda desta revolução tecnológica, explorando as potencialidades dos LLM para criar soluções de software inovadoras e disruptivas. Estamos cientes de que qualquer tecnologia atravessa um período de desilusão mais invernosa, mas acreditamos numa perspetiva otimista sobre o futuro da IA generativa híbrida, antecipando avanços significativos nesta área.
Trata-se de um salto tecnológico que nos recorda a visão de Marvin Minsky. Através do conceito “a sociedade da mente”[11], este pioneiro da IA explicou que a inteligência humana é formada pela colaboração de múltiplos sistemas, semelhantes a membros de uma sociedade diversa, que trabalham em conjunto para gerar comportamentos cada vez mais inteligentes. De maneira análoga, as soluções de IA generativa híbrida – nomeadamente as desenvolvidas pelo Genio – beneficiam de uma variedade de abordagens e técnicas que trabalham em uníssono para responder aos crescentes (e cada vez mais complexos) desafios de transformação digital, enfrentados por entidades públicas e empresariais.
Seja na mitologia ou na tecnologia, equilibrar intuição e lógica, adaptabilidade e precisão, perceção contextual e processamento de dados e conceitos, é uma dualidade neuro-simbólica e um desafio permanente. Mas é igualmente o ponto de partida para um futuro repleto de possibilidades, onde a fusão da inteligência humana com a Inteligência Artificial, nas suas variadas nuances, vai permitir aos profissionais, organizações e nações mais visionários redefinir o que é possível alcançar através do software. Um futuro no qual a competição pelo talento se travará não entre humanos e máquinas, mas entre profissionais que saibam (ou não) fazer uso da IA Generativa a seu favor – num conjunto de domínios que ultrapassa largamente as fronteiras das TI, pela sua capacidade de impulsionar aspirações tão globais como os Objetivos de Desenvolvimento Sustentável estabelecidos na Agenda 2030.
Afinal, e ao invocarmos a imagem dos heróis neste artigo, estamos indiretamente a falar sobre a maior das aspirações humanas: fazer o bem. E com a emergência de um Super Genio desdobram-se oportunidades sem precedentes – passamos a poder usar o software para promover uma distribuição mais justa da riqueza, salvaguardar direitos fundamentais como alimentação, habitação, saúde ou educação, oferecer novos mecanismos de gestão da dívida pública, contribuir significativamente para a preservação dos recursos naturais do nosso planeta e a construção de um futuro mais informado, mais colaborativo e mais pacífico.
Porque Inteligência Artificial e poder tecnológico serão sempre, e acima de tudo, o reflexo da inteligência (e do coração?) dos humanos.
[11] Minsky, M. (1986). The Society of Mind. New York: Simon & Schuster.
A IA Generativa da Quidgest não é IA de laboratório!
A Quidgest desenvolve soluções reais para muitas empresas, instituições públicas e governos, espalhados pelo mundo, e está comprometida com uma agenda para o Desenvolvimento Sustentável. Os nossos stakeholders (os que apostam nas nossas organizações) estão empenhados em ver-nos progredir neste campo. Porque a tecnologia está disponível. E porque há muito para fazer.
Acreditamos que tudo se conjuga para o uso da IA generativa híbrida na criação de soluções digitais para uma mudança positiva com Consciência Global. Mais do que uma filosofia, isto é uma prática que se traduz em projetos em contextos muito exigentes, como demonstram os Prémios de Co-Inovação apresentados na última edição do Q-Day, realizada sob o tema “Decoding Generative AI”.
*Este artigo foi publicado originalmente na QuidNews #36.