Por Anderson Fedel Desde novembro de 2022, quando foi lançado o ChatGPT, pessoas ao redor do mundo passaram a ter a oportunidade de interagir diretamente com um tipo bastante sofisticado de Inteligência Artificial (IA), a Inteligência Artificial Generativa (GenAI). Os modelos de GenAI tornaram-se cada vez mais populares desde então e muitas pessoas passaram a contar com esse tipo de ferramenta, que é capaz de dar respostas e resolver problemas sobre as mais diversas situações. Mas uma característica específica desses modelos tem chamado a atenção de muitos usuários, que certamente ainda estão aprendendo a lidar com essa nova tecnologia. Mesmo fazendo exatamente a mesma solicitação ao chatbot, em dois momentos distintos, parece impossível obter uma resposta igual duas vezes. No post de hoje vamos entender por que esta é uma característica inerente desses modelos e como podemos aprender a lidar com ela, usando isso a nosso favor.
Como se fosse a primeira vez
Um sistema de chatbot baseado em IA é diferente dos sistemas tradicionais de chatbots, que funcionam apenas com funções pré-definidas. Se antes tínhamos poucas opções de escolha durante a conversa (digite 1 para ouvir novamente, 2 para seguir adiante, 3 para…) agora, com um chatbot inteligente, podemos ter infinitas possibilidades de interação. Por isso esses modelos são tão versáteis, mas também bastante complexos. Para entender o comportamento destes chatbots, é preciso lembrar que eles usam um tipo de GenAI chamado Modelo de Linguagem em Grande Escala (mais conhecidos como LLMs, pela sigla do termo em inglês) que são essencialmente modelos matemáticos probabilísticos. Calma, não mude a página! Saber desse conceito é importante porque ajuda a visualizar a forma como cada resposta é criada. Quando um usuário faz uma pergunta ou solicitação, tudo que esse tipo de modelo faz é gerar palavras (por isso o termo “generativa”). Cada palavra é gerada com base nas anteriores, sempre associada a uma probabilidade. Então, se fornecermos ao modelo uma solicitação com o texto “A capital da Argentina é”, ele vai calcular quais são as próximas palavras mais prováveis, que podem ser “Buenos Aires.” ou “Buenos Aires, que é a cidade mais populosa do país.”, ou “Buenos Aires, a maior cidade do país.” e outras respostas do tipo. Veja que todas são adequadas e atendem à solicitação do usuário. Existe um componente de aleatoriedade no modelo que faz com que a cada nova solicitação as probabilidades mudem, tornando cada resposta única. Duas respostas podem ser iguais? Podem! Mas vai depender de algumas probabilidades… calma, vamos ficar por aqui em relação a conceitos matemáticos.
Sob controle. Mas só um pouco.
Algumas ferramentas, como o Microsoft Copilot, já oferecem opção de diminuir ou aumentar a variedade nas respostas. Acessando o Copilot através da ferramenta Bing, é possível encontrar as seleções “mais criativo”, “mais balanceado” e “mais preciso”. Semelhante à lógica que descrevemos anteriormente, essas opções direcionam o modelo a dar respostas mais ou menos variadas. Por exemplo, para quem deseja respostas mais uniformes, a opção “mais preciso” é mais apropriada. Quem busca mais variedade, com respostas diferentes, encontrará na opção ‘mais criativo’ uma alternativa mais interessante. Veja que, a depender do contexto, o modo “mais criativo” pode ser bastante útil. Imagine que você esteja em busca de ideias para elaborar um texto. Talvez, quanto mais opções diferentes, maior a chance de encontrar as palavras que atendam à sua necessidade. Já um texto “mais preciso” pode ser útil ao elaborar um parecer ou realizar traduções de outras línguas, situações onde a consistência é importante. Como podemos perceber, entender as possibilidades e limitações da ferramenta pode fazer toda a diferença. Interface do Microsoft Copilot, onde é possível escolher o modo de geração de resposta.
Novos paradigmas
Uma consequência importante desta nova forma de interagir com sistemas e informações é que passamos a ter progressivamente menos respostas uniformes e reproduzíveis. Por exemplo, antes, fazer uma busca por “produtos para clareamento dental” no Google significava obter uma lista de links pré-estabelecidos. Se, por acidente, fechássemos a janela com os resultados, uma nova busca retornaria exatamente os mesmo links. Mas agora, cada vez mais, os próprios mecanismos de busca incorporam IA aos seus resultados. Nesse caso, duas buscas, mesmo que quase simultâneas, podem ter resultados distintos. Então, é bem provável que tenhamos que nos acostumar a essa nova forma de consumir informação. A tendência parece ser geral. Com a popularização dos LLMs, muitas pessoas deixaram de buscar informação em sites de busca e agora recorrem ao ChatGPT. Mecanismos como Bing e Google perceberam essa tendência e, por isso, incorporaram IA à sua interface. Cabe a nós entender esses novos mecanismos e tirar melhor proveito deles.
Referências
https://posdigital.pucpr.br/blog/ia-generativahttps://blog.dsacademy.com.br/o-que-sao-large-language-models-llms/https://copilot.microsoft.com/ ODONTOLOGIA NEWs
Odontologia News tem como principal objetivo oferecer um conteúdo rico sobre o universo odontológico para os profissionais, pensando também nos pacientes e no público em geral.
Nossos artigos apresentam atualidades e dicas preciosas sobre tecnologia, inovação e gestão para seu consultório. Fique atento ao nosso blog para manter-se sempre bem-informado