​on 10/04/2026 at 16:27

#002350 – 04 de Novembro de 2025

Trabalhar com LLM’s e agentes é estranho. Nunca houve ferramentas, software assim. Quando temos uma dúvida, até se uma resposta não nos agrada ou falha o propósito, podemos pedir ajuda ao próprio software. Não há garantias de que as respostas sejam 100% fidedignas, mas o processo tem a naturalidade de uma conversa. Sim, agora que encontrei várias utilidades nestas ferramentas cujo uso me é agora quotidiano, parece-me ligeiramente mais plausível que haja quem imagine (não só inteligência) mas uma consciência artificial. Mas não há que nos deixarmos levar pela simulação. Sabemos que o software já consegue imitar imagens, vídeos e som (incluindo vozes). Sabemos que muitas vezes não temos capacidade de identificar que um artefacto foi produzido por software e não por humanos. Há que nos habituarmos também à ideia de que já não seremos facilmente capazes de saber se do outro o nosso interlocutor é consciente ou não. Já não passamos (nós humanos) o teste de Turing. Ao menos quando o software é visível (vemos o logotipo, a caixa de diálogo, o chatbot), quando estamos a interagir em software com software, não há que ter dúvidas. É linguagem natural a forma de interagir mas para lá chegar há um modelo de linguagem a calcular probabilidades, recorrendo a muita capacidade de computação e energia. Não é uma consciência, não é um ser, são linhas de código a correr.

Leave a comment

Your email address will not be published. Required fields are marked *