Steven Gouveia: “cada vez mais iremos lidar com mais e mais inteligência artificial presente no nosso dia-a-dia e isso levantará questões éticas muito interessantes.”

O conceito de “inteligência” em “Inteligência Artificial” parecia-me especialmente obscuro, pelo que a primeira secção do livro discute exactamente de que o forma esse conceito pode ser pensado.

Ora, há várias questões interessantes nesta experiência mental, mas a que me interessou mais é o problema da ético que se levanta em relação à responsabilidade desta situação e das suas consequências: uma criança ou cinco pessoas vão ser atropeladas. Quem deve ser responsabilizado?

Não é a primeira vez que falo de inteligência artificial aqui no blog. Será a primeira vez que tenho alguém conhecedor e investigador do tema aqui no blog – e isso deixa-me muito contente. Senhoras e senhores, Steven Gouveia.

 

Quem é o Steven?

O Steven está a finalizar o seu doutoramento em Neurofilosofia (FCT / Universidade do Minho) onde investiga de que forma se pode (ou não) relacionar a filosofia e a neurociência para investigar determinados fenómenos como a consciência ou informação. Neste âmbito, trabalha sob supervisão do filósofo Manuel Curado e do neurocientista Georg Northoff na Mind, Brain Imaging and Neuroethics Unit (Ottawa, Canadá) onde é investigador-visitante. Fora da vida académica, gosta de xadrez, gatos e de Cuba Libre!

Conheci o Steven em lides académicas e outras menos académicas, mas bastante filosóficas. Entre uma conferência no âmbito da Filosofia para Crianças, no Porto, e um Festival de Filosofia, em Abrantes, vamos acompanhando e seguindo o trabalho um do outro.

Para esta entrevista marcámos encontro através do e-mail.

⚠️ Aviso: este artigo é longo. Vamos a isto?

 

the matrix

 

Steven, obrigada pela tua disponibilidade em responder a algumas perguntas sobre o livro The Age of Artificial Intelligence – An Exploration.

Recordo-me que estivemos juntos no Festival de Filosofia de Abrantes, em 2018, cujo tema era precisamente A Inteligência Artificial, o Trabalho e o Humano. Nesse evento, pessoas de todas as idades foram chamadas a pensar sobre estas temáticas. Que contributo tem este livro para o debate?

Este livro “The Age of Artificial Intelligence: na Exploration” nasce, em primeiro lugar, de uma teimosia minha de querer trazer a Portugal alguns dos mais relevantes investigadores de diferentes áreas sempre ligadas a temáticas filosóficas mas com um cunho multidisciplinar.

Neste caso, no dia 5, 6 e 7 de Dezembro de 2017 organizei com a Associação Episteme & Logos e a colaboração do Mind, Language and Action Group da Universidade do Porto (com a Sofia Miguens e a Diana Neiva) uma conferência internacional de Inteligência Artificial, trazendo ao Porto o investigador Luciano Floridi,  um dos mais reputados pensadores sendo o fundador da uma disciplina filosófica interessante: a Filosofia da Informação.

Esta área (Inteligência Artificial) sempre me interessou particularmente: lembro-me que um dos primeiros trabalhos que fiz para uma das unidades curriculares da licenciatura em Filosofia era exactamente sobre de o tema da “consciência reproduzida” ou artificial. Ademais, os variados problemas éticos que se levantam com esta área são imensos e diversificados. Por fim, havia uma motivação extra que me movia: o facto destes problemas ligados à tecnologia e computação serem problemas com os quais somos confrontados frequentemente quer em filmes/séries de ficção científica (como o Matrix, o Her, Westworld, etc.) mas também no próprio mundo real (como os carros autónomos da Tesla).

 

the matrix

 

A conferência correu muito bem, contámos com a presença de mais de três dezenas de investigadores internacionais onde foram discutidos diversos problemas interessantes e complexos. Poucos meses depois, estaria a concluir a escrita do meu primeiro livro “Reflexões Filosóficas: Arte, Mente e Justiça” (Editora Húmus) onde acabaria por incluir dois capítulos (e meio) sobre o tema: um que discutia a validade da possibilidade (futura) de conseguirmos criar uma tecnologia para realizar o upload da nossa mente para um substracto artificial (e.g. um computador); um segundo capítulo que discute de que forma o método filosófico tradicional (i.e. não-empírico) é relevante para discutir os problemas colocados pela inteligência artificial, argumentando a favor de uma tese anti-naturalista que, com o tempo, se está a desvanecer cada vez mais e, finalmente, em metade de um capítulo dedicado à natureza da Guerra, onde discuti os problemas que são levantados pela utilização de armas autónomas que podem decidir os seus alvos sem acção humana directa.

Mas depois da escrita desse primeiro livro, pensei que deveria fazer mais. Surgiu-me então a ideia de convidar alguns dos investigadores fundamentais da área da Inteligência Artificial para escreverem um capítulo para uma obra que tentaria discutir o tema de variadas perspectivas sem, contudo, perder o rigor. A Vernon Press, uma editora académica americana, abrindo uma excepção que agradeço profundamente, aceitou correr o risco de confiar num investigador não-doutorado para ser o organizador do livro (não é usual um não-doutorado ser o único editor de um livro deste género; o facto de ter já co-editado – com Manuel Curado – com eles o livro “Automata’s Inner Movie: Science and Philosophy of Mind” (2019) também poderá ter ajudado).

Ademais, sendo muito sortudo, alguns dos investigadores que queria ter no livro já tinham colaborado noutros projectos meus (como o Dan Dennett, o Ben Goertzel, entre outros) o que me fez ter cada vez mais e mais responsabilidade em oferecer um livro que fosse de qualidade mas também aberto à leitura do cidadão comum: lembro-me de estar no Starbucks da York Street em Ottawa a pensar como é que poderia escrever uma introdução ao livro que pudesse agarrar do início o leitor especialista, mas também não especializado, tendo escolhido escrever sobre o embate épico entre o DeepBlue da IBM e o Gary Kasparov, campeão mundial de Xadrez, que foi dos primeiros a ler o livro e a elogiá-lo.

Foram mais de 2 anos de trabalho árduo para garantir que todos os capítulos estariam no “ponto de cozedura” perfeito, tendo sido o manuscrito aprovado em revisão por pares por três especialistas anónimos da área. Além disso, o livro acabaria por ter a contribuição de nomes como Roma Yampolskiy, David Pearce, Natasha Vita-More, Ben Goertzel (criador da Robot Sophia) e até Vernon Vinge, o matemático que criou na década de 90 um dos conceitos fundamentais da área (“singularidade”).

Graças ao “plantel” de luxo que consegui reunir (a quem agradeço a honra de uma vida!), faltaria pensar nos temas a discutir. O conceito de “inteligência” em “Inteligência Artificial” parecia-me especialmente obscuro, pelo que a primeira secção do livro discute exactamente de que o forma esse conceito pode ser pensado. A segunda secção procurou discutir a ligação entre consciência, simulação e I.A. Segue-se a terceira secção onde diversos investigadores trabalharam o conceito de “criatividade artificial” na música, poesia ou mesmo na ligação com a linguagem. Finalmente, as últimas duas secções investigaram diversos aspectos éticos que se levantam com diferentes formas particulares de I.A.

A seu favor, o livro reúne alguns dos protagonistas da área que com rigor, mas também com clareza, discutem de uma perspectiva multidisciplinar mas também multitemática o que esta área de investigação tem para oferecer. Desconheço, em Portugal, um livro que tenha sido editado por algum investigador português que ofereça algo semelhante. Contudo, o facto de ser publicado por uma editora académica (sendo o preço do livro algo elevado em relação a um Nicholas Sparks) poderá afastar alguns leitores.

Mas numa perspectiva geral, este livro é, de facto, um contributo internacional muito relevante da área: daqui a 50 anos, os futuros investigadores de I.A. irão certamente ler o livro e perceber de que forma se pensava as diversas temáticas ligadas à área no fim da segunda década do século XXI.

 

inteligência-matrix

 

Na p. 147 do livro sublinhas esta genuína possibilidade de nos encontrarmos a viver numa simulação:

“One of these three propositions, he argues, must be true: suppose that it was the case that (1) is false – some civilization in the universe reaches technological maturity; then suppose that (2) is also false – some civilization uses the resources to run ancestors simulations; you can then show, supposedly, that because these mature civilizations can do astronomical numbers of simulations, if the first two possibilities are false, there might exist more simulated people like us than non-simulated people. Most of the people with our kind of experiences would be living inside simulations rather than outside them.

The reasoning behind the argument is that, if you reject the first two hypotheses, then you have to accept that the third one follows necessarily. For each real world, we would have millions of simulated worlds, so the probability that we’re already in a simulation seems genuine.” 

 

Partindo desta possibilidade e seguindo a ideia de Bostrom, a vida numa simulação é real. Que consequências éticas tem o facto de pensarmos que não, que a vida numa simulação não é real?

Essa é uma excelente questão que, por motivos de espaço, não pude discutir neste livro que nos traz aqui. Contudo, não pude deixar de explorar a consideração ética da simulação no meu próximo livro que devido à pandemia não foi ainda publicado, mas estará para muito breve. O livro tem o título de “Homo Ignarus: Ética Racional para um Mundo Irracional” (com prefácio de Peter Singer) e discute oito problemas de ética aplicada que acho relevante.

No quarto capítulo, investigo a seguinte hipótese: se a simulação é realmente possível, que considerações éticas se seguem? A ideia de simular universos complexos como o nosso pode ser fundamentada em razões eticamente positivas: por exemplo, dado o ritmo do aquecimento global no planeta, a criação de mundos simulados onde a civilização pudesse continuar o seu desenvolvimento e evitar a sua extinção pode ser visto, no mínimo, como algo eticamente positivo, e no máximo, como algo eticamente obrigatório.

O problema é que, assumindo que o universo simulado incluirá seres humanos conscientes como nós, poderá levantar-se um problema ético muito difícil de ser ultrapassado: se as pessoas numa simulação são seres como nós, os “não-simulados”, então são seres que podem sofrer (tremendamente!) a ouvir a Maria Leal a cantar, ou podem ter (imenso!) prazer a ver o Benfica a perder. Isto é: os seres simulados serão seres sencientes e conscientes como nós. Contudo, é imoral causar dano a seres sencientes que pode ser facilmente evitado. E isso levanta um problema às sociedades ou governos futuros que, caso haja tecnologia disponível, devem considerar seriamente.

No capítulo faço notar que alguns autores defendem que uma civilização que considere fazer simulações de larga escala (e.g. do universo inteiro) com pessoas sencientes – milhões e milhões de pessoas a sofrer com as derrotas do Benfica – e que tenha a tecnologia para o fazer (estamos a falar de uma possibilidade que está, para já, longe da capacidade científica actual, embora a ciência já faça uso de simulações, como por exemplo o Projeto Illustris, uma simulação cosmológica gigante com o objectivo de estudar a formação e evolução de galáxias) terá uma elevada probabilidade de se destruir a si mesma por razões relacionadas com falta de limites éticos em relação a outros problemas, como por exemplo usar bombas nucleares ou votar em políticos trumpianos que ignorem a melhor ciência das alterações climáticas ou da epidemiologia.

Claro, para um investigador mais especializado em temas da Filosofia da Mente, faço também notar que a hipótese de que os seres humanos numa simulação são sencientes requer bastantes compromissos ontológicos que Bostrom assume sem oferecer uma defesa sólida dos mesmos. Enfim, a ética (principalmente aplicada) vive neste impasse metodológico terrível: pensa um mundo que já existe mas que deveria ser apenas uma possibilidade antes de existir realmente. A questão da simulação levanta sérias considerações normativas que devem ser pensadas com rigor e expertise. Espero que as gerações futuras tomem isso em consideração e pensem as consequências éticas desta tecnologia antes (!) dela existir realmente.

 

Steven Gouveia: "cada vez mais iremos lidar com mais e mais inteligência artificial presente no nosso dia-a-dia e isso levantará questões éticas muito interessantes." 1

 

Tendo em conta o teu trabalho desenvolvido no tratamento das questões relacionadas com a IA, como vês a sua relação com o humano? Para os humanos a IA é uma oportunidade ou uma ameaça?

Essa pergunta é de facto uma daquelas interrogações que nos deixa maldispostos e sem apetite dado o gigante escopo de respostas possíveis. Estará para sair um documentário internacional onde tive a honra de entrevistar 13 especialistas mundiais de inteligência artificial e ética onde discutimos muitas formas e problemas da relação do humano com a inteligência artificial. Algo que todos concordámos é que não devemos imputar a priori uma leitura ética ou imoral da mesma: tudo dependerá da tecnologia específica, do contexto do seu uso, dos objectivos, intenções, etc. Num próximo livro em que já estou a trabalhar (que será uma continuação deste livro de ética aplicada onde investigarei a ética de diversos temas como o Rendimento Básico Incondicional, da Sexualidade, do Casamento, da Reprodução, entre outros) irei discutir o problema ética dos robots sexuais: uma tecnologia robótica (corpórea) criada para prazer humano (e.g. os robots sexuais “Harmony” já estão à venda). Há vários argumentos  a *favor* que podem ser oferecidos para a criação, desenvolvimento e uso desta tecnologia:

(1) poderá reduzir o tráfico sexual humano ligado à prostituição, dado que os clientes habituais poderão adquirir um robot sexual;

(2) poderá ajudar muitas pessoas a realizar os seus fetiches e fantasias mais íntimas e assim torná-las sexualmente realizadas;

(3) poderá ajudar determinadas pessoas que, devido às suas circunstâncias (e.g. incapacidades físicas ou mentais mas com o sistema sexual apto) a realizar algo que é também essencial ao ser humano, o prazer sexual;

e finalmente, o argumento mais controverso de todos:

(4) poderá ajudar a diminuir a pedofilia, dado que se assume que quem tenha esse distúrbio sexual irá poder realizá-lo com robots sexuais infantis, diminuindo assim o número de vítimas humanas.

Contudo, existem também uma diversidade de argumentos *contra* o desenvolvimento e uso desta tecnologia:

(5) o argumento “feminista” defende que os robots sexuais fazem uso de uma concepção sexista e misógina da mulher (a maior parte dos robots sexuais são mulheres), dado que esta tecnologia hiper-sexualiza a mulher sendo esta completamente submissa aos desejos do comprador; ora, a sociedade precisa de incentivos para olhar de outra forma para a mulher, e não de uma tecnologia que reforça esses estereótipos negativos;

(6) o argumento contra (4), defende que a criação de robots sexuais infantis para combater a pedofilia não faz sentido dado que já existem alternativas eficazes como a castração química ou física, psicoterapia ou mesmo a prisão;

(7) finalmente, para não alongar muito, esta tecnologia dos robots sexuais poderá levar a uma diminuição da interacção sexual entre pessoas humanas, podendo colocar em causa a própria reprodução humana ou a criação de uma obsessão sexual parecida com o que acontece com a adição à pornografia.

Claro, todos estes argumentos têm problemas que serão analisados nesse próximo livro (que espero que venha a sair já em 2021). O importante deste exemplo é que mostrar exactamente de que forma a inteligência artificial pode ou não ser eticamente positiva ou negativa.

Mas o mais importante de toda esta discussão é a relevância da expertise ética que está profundamente em falta nos nossos dias. Veja-se o caso das famosas comissões de ética de diversas instituições. Como afirmo na introdução do meu “Homo Ignarus”:

“(…) O que há de comum nas comissões de ética em Portugal? A mais fundamental: nada têm a ver com ética. No fundo são, na maioria dos casos, um grupo de pessoas sem formação especializada em ética a escrever pareceres pseudo-jurídicos seguindo regulamentos internos”.

E embora isto pareça anedótico, a realidade é mesmo assim: há uma falta enorme de expertise ética no mundo actual. Imagine uma “comissão da ciência” onde 9 dos 10 membros nunca teve sequer uma iniciação ao estudo científico, desconhecendo as bases da biologia, da química ou da física, mas que o seu trabalho é criar pareceres “científicos”. Que tipo de ciência havemos de esperar de uma comissão assim? O mesmo acontece com as comissões de ética: a maior parte das pessoas que fazem parte das mesmas são absolutamente Homo Ignarus da Ética, desconhecendo as suas diversas sub-disciplinas (Metaética, Teorias da Ética, Ética Aplicada, etc.) e o que significa pensar eticamente o mundo. Talvez tenhamos de criar robots eticistas para que o mundo perceba o quão importante a expertise ética devia ser para a sociedade.

 

Steven Gouveia: "cada vez mais iremos lidar com mais e mais inteligência artificial presente no nosso dia-a-dia e isso levantará questões éticas muito interessantes." 2

 

No teu quotidiano, que papel ocupa a IA?

O termo “Inteligência Artificial” é hoje usado para cobrir uma vastíssima diversidade de sub-áreas diferentes entre si como por exemplo a ciência dos dados (Big Data), a robótica, a computação, a engenharia, etc. Tecnicamente, podemos dizer que a IA, tomada neste sentido geral e abstracto, ocupada grande parte da nossa vida, seja quando estamos no nosso telemóvel a utilizar diversas apps, seja usando a internet 5G, seja a conduzir o nosso carro e a parar num semáforo vermelho.

Mas estas aplicações, embora sejam empiricamente complexas de realizar, são pouco interessantes para mim exactamente porque já sabemos como fazer, construir, reproduzir e utilizar – não há nenhuma dificuldade filosófica, mas somente um trabalho técnico. As questões da IA que mais me interessam são exactamente estes problemas que dificilmente poderão ser resolvidos através de soluções meramente empíricas mas necessitarão de algo mais.

Daí que a ficção científica (quer na literatura, mas também no cinema) seja interessante para funcionar como uma espécie de Equilíbrio Reflectido entre o mundo ficcional e o mundo real, onde as considerações do primeiro balançam para o segundo. O cinema pode realmente ter esse papel de até criar material filosófico original (o Matrix é um excelente exemplo disso). Mas para discutires isso talvez seja melhor convidares a Diana Neiva da Universidade do Minho.

Mas voltando à tua pergunta, cada vez mais iremos lidar com mais e mais inteligência artificial presente no nosso dia-a-dia e isso levantará questões éticas muito interessantes. Por exemplo, imagina que alguém comprou um novo Tesla e que está a andar nele em piloto automático. Ora, o programa do veículo por algum motivo não reparou que uma criança estava na iminência de atravessar a estrada e calcula que

(i) nada faz e atropela a criança ou

(ii) vira o volante para a esquerda atropelando cinco pessoas que aí se encontram

(sim, estou a actualizar o famoso dilema do trolley da incrível Philipa Foot que, lembre-se, criou esta experiencia mental para mostrar, entre outras coisas que, de certa forma, o nosso agir ético é profundamente incoerente e enviesado).

Ora, há várias questões interessantes nesta experiência mental, mas a que me interessou mais é o problema da ético que se levanta em relação à responsabilidade desta situação e das suas consequências: uma criança ou cinco pessoas vão ser atropeladas. Quem deve ser responsabilizado?

Em várias publicações recentes apresentei a ideia de que as nossas concepções tradicionais de responsabilidade não conseguem lidar com estes novos casos ligados à inteligência artificial e que precisamos de actualizar as mesmas com urgência, acabando por defender uma concepção a que chamo de “Responsabilidade Distribuída”, onde defendo que deve haver uma relação estrutural e relacional entre todas as partes do processo (e.g. quem produz a tecnologia, quem supervisiona a mesma, quem compra a tecnologia, etc) de modo a que, repartindo-se a responsabilidade por diversos agentes, garantimos que cada parte do sistema tenderá a procurar uma acção positiva de si mesmo de modo a eliminar os perigos que podem estar associados ao uso de tecnologia desenvolvida e autónoma.

Este é apenas um exemplo do tipo de questões que me interessam e que espero vir a investigar academicamente no futuro próximo.

 

the-matrix

 

Gostarias de escrever um livro “a meias” com a Sophia, the Robot? Porquê?

Dependeria do livro. Os livros académicos têm um problema (que é também uma vantagem): requerem muito tempo e energia investidos, imensas leituras técnicas, apresentações do material em conferencias científicas, publicações, etc. Ora, acho que a maior vantagem de escrever a meio um livro com a Sophia seria essa: poder ultrapassar as limitações biológicas humanas como o cansaço, a fome, o sono e, no meu caso, não ter um cérebro minimamente brilhante.

Assumindo que a Sophia fosse uma Inteligência Artificial Geral como o Ben (Goertzel) a quer conceber, ela teria a capacidade de ler em segundos os milhares de livros e artigos sobre um determinado problema e talvez resumir-me em poucas palavras o que aí é discutido. Ora, neste caso, a Sophia funcionaria como uma dilatadora de tempo que me faria poupar imensas horas. Agora que penso nisto, a minha vida seria muito mais fácil! Acho que já já já a seguir a acabar esta entrevista vou falar com o Ben e pedir-lhe que me envie um exemplar! 😊

 

 

📷 Alex Knight on Unsplash