#### #002300 – 15 de Setembro de 2025

#002300 – 15 de Setembro de 2025

Propõe Cal Newport, num contexto de bioética: imaginemos que alguém se põe a refletir nos perigos que a biotecnologia pode trazer ao mundo. E que essa pessoa se pergunta, e se fosse possível clonar ovos de dinossauro? Partindo desse pressuposto, essa pessoa a seguir desenvolve, durante vinte anos, um trabalho de reflexão sobre os perigos de um mundo com dinossauros à solta. Teoriza em detalhe sobre a dificuldade que seria controlar dinossauros, qual o tamanho e as características de vedações que realmente conseguissem conter tiranossauros, sobre que tipo de dardos tranquilizantes seriam suficientemente eficazes para fazer adormecer animais de porte tão imenso.

Ora bem, isto, diz Newport, é o que se está a fazer com a Inteligência Artificial. Os doomers, como Eliezer Yudkowsky, que avisam sobre o perigo de uma superinteligência emergindo a partir do software actual, partem do pressuposto que é possível, a partir dos actuais modelos de linguagem e agentes de inteligência artificial, gerar uma superinteligência autónoma, com objectivos e intenções. E a seguir passam o tempo a imaginar quão difícil seria conter uma superinteligência à solta, esquecendo-se de que tudo o que dizem parte de um pressuposto. Primeiro há que pressupor que é possível criar uma superinteligência. Tudo o resto é imaginação. E a ciência informática actual não tem ideia de como gerar uma superinteligência.

A isto chama Cal Newport a falácia do filósofo (the philosopher’s fallacy). No seu canal sobre ontologia, Casey Hart refere-se a esta falácia como “Blueprint Bias”, algo que poderíamos traduzir muito desajeitadamente como viés de design inicial. Basicamente, esta falácia consiste em tratar um pressuposto como um facto, ou em esquecer que tudo o que se diz assenta num pressuposto. Quer no caso hipotético do aviso sobre o perigo de dinossauros à solta, quer no caso de uma super inteligência artificial à solta, tudo se passa dentro da experiência de pensamento. Este tipo de experiências são muito caras aos escritores de ficção científica. As premissa “e se…?” são a base de muitas histórias. Já a ciência e as decisões políticas precisam de assentar na realidade. Todo este alarido doomer, com cenários de apocalipse à Matrix distrai-nos das verdadeiras questões éticas do nosso tempo, no que toca à inteligência artificial: o seu uso em armas autónomas e em vigilância massiva, o roubo descarado de dados pessoais e trabalho de artistas, o potencial de concentração ainda maior de poder e corrupção das democracias, a facilidade com que agora se produz fake news. Nada disto necessita de superinteligências, nada disto é inevitável.