Caros alunos e alunas, a seguir dois textos que editei sobre o dilema do trem e carros autônomos, e um texto da folha de SP.

Boa leitura! -Calado

PS. se preferir versão para imprimir, clique aqui

 

O dilema do trem. Editado do blog desfavor.com 

            Esse é famoso, mas não custa repetir: você se encontra às margens de um trilho onde um trem desgovernado vai atropelar cinco pessoas amarradas aos trilhos. À sua frente, uma alavanca que muda o trem de direção e o coloca em outro trilho onde uma pessoa está amarrada. É impossível desamarrar as cinco pessoas a tempo.

Tema de hoje: Você puxa a alavanca?

            Sim. Poucas coisas são mais básicas e confiáveis que a matemática. Um é menos do que cinco. Se uma ação reduz a quantidade de vítimas de um acidente inescapável, essa é a ação mais lógica. Claro, lógica a partir de um conjunto de ideias e conceitos resultantes da evolução humana em estruturas sociais como as que temos. Não puxar a alavanca é renegar tudo o que nos trouxe até aqui. E por mais que misantropia possa ser “charmosa” para alguns públicos, não deixa de ser um tiro no pé.

            Puxar a alavanca faz mais parte da ordem natural das coisas que não puxar. Os detratores desse ponto de vista normalmente acreditam que estão isentos de culpa se não interferirem na situação, o que passa longe de ser a verdade: a decisão consciente de não puxar a alavanca viola a lógica matemática. É muito mais racionalizada (porque “racional” é uma palavra forte para ela – mais sobre isso depois) porque presume a compreensão da evidência da possibilidade de redução de danos e mesmo assim exerce uma força no sentido contrário.

            Quem não puxa a alavanca toma uma decisão fria e calculista de matar cinco pessoas ao invés de uma. Quem puxa toma a decisão (menos fria e calculista, admito) de salvar cinco pessoas. Matar as cinco pessoas é subverter a ideia de manutenção da espécie e se colocar conscientemente fora do processo evolutivo. Usar essa mentalidade para desenvolver tecnologias que afastam o ser humano da evolução orgânica é uma coisa, usá-la para decidir a extinção da vida de membros da sua espécie beira à psicopatia.

            Uma perigosa alienação de propósito. A inação não é o método natural do universo. (...) A realidade só existe através da ação. Acabou a ação, acabou o universo! Puxar a alavanca é fazer parte do movimento contínuo da existência, não tem nada a ver com ego ou desejos de poder. Um animal social tende a proteger seus iguais. E como somos capazes de compreender a ação e suas implicações, puxar a alavanca é só mais um exemplo desse comportamento.

            E para ser sincero, eu entendo como uma pessoa pode chegar na conclusão contrária. (...) Não puxar a alavanca é uma intervenção consciente com piores resultados matemáticos. “Você quer ganhar um centavo ou mil reais?”. A pessoa pode dar argumentos lindos sobre humildade para defender a escolha do centavo, mas continua sendo uma decisão com mais cara de surto emocional do que lógica. A partir do momento em que você se encontra diante da alavanca e tem a possibilidade de alterar o resultado da cena, tudo o que você fizer é intervenção. E se já interveio, qual o melhor resultado que você pode alcançar? Matar uma pessoa ao invés de matar cinco.

            Sei que pode ser meio óbvio: as seis pessoas amarradas ao trilho são completas estranhas para você e não há forma simples de identificar medidas alternativas de importância. Pelo menos não antes do trem matar alguém. É muito comum usarem argumentos emocionais e colocarem pessoas conhecidas e queridas no lugar do um que morre se a alavanca for puxada, mas isso é modificar o dilema. E mesmo que quem te faça essa proposição sentimentalista não perceba como está simplesmente inventando outra questão (o que é um tipo de falácia), ainda está apelando para uma decisão emocional por não ter argumentos sólidos (também uma falácia).

            Se fossem cinco estranhos num trilho e a minha mãe (editado) em outro, eu não puxaria a alavanca, por exemplo. Mas espero que vocês percebam que toda a estrutura do problema mudou radicalmente. É outra pergunta! O dilema SÓ funciona se todos forem estranhos e indiferenciáveis.

            Mais uma coisa: e se eu tivesse que empurrar um estranho no trilho para salvar cinco pessoas? Bom, aí eu não empurraria. Isso seria impor um sacrifício para outra pessoa que eu também poderia fazer. No dilema do trem original, eu não posso tomar o lugar da pessoa solitária no trilho nem se quisesse, pois se puxar a alavanca não sobra tempo para soltá-la. Mas isso é tema para uma outra análise...

Os carros de autônomo tomam decisões éticas como nós? (Should Self-Driving Cars Make Ethical Decisions Like We Do?)

Extraído da Singularity University, editado por Prof. Dr Luiz Calado

 

Gif Animado mostrando o carro autônomo Google  em movimento   

      

Um problema com automóveis autônomo (carro que dirige sozinho) é como programá-los para tomar decisões éticas em caso de acidentes inevitáveis.

         Os etiólogos têm nos torturado com o chamado "dilema do trem": se um trem está prestes a atingir um grupo de pessoas, e ao puxar uma alavanca você pode fazer com que ele troque as faixas para que atinja apenas uma pessoa, você deve puxar a alavanca?

        Mas para aqueles que projetam automóveis autônomo, o problema é mais do que apenas uma experiência hipotética, já que esses veículos precisarão tomar decisões semelhantes. Se um pedestre sair para a estrada de repente, o carro pode ter que decidir entre desviar e ferir seus cinco passageiros ou derrubar o pedestre. Pesquisas anteriores mostraram que os julgamentos morais de como os seres humanos lidam com esses tipos de situações são altamente contextuais, tornando-os difíceis de modelar e, portanto, replicar em máquinas.

            Mas quando pesquisadores na Alemanha usaram a realidade virtual imersiva para expor voluntários às variações do problema do trem e estudaram como se comportaram, ficaram surpresos com o que encontraram. "Encontramos o contrário", disse Leon Sütfeld, pesquisador: "O comportamento humano em situações de dilema pode ser modelado por um modelo bastante simples de valor de vida que é atribuído pelo participante a todo objeto humano, animal ou inanimado".

         A implicação é que a tomada de decisões seguindo o critério humanos nessas situações não seria tão complicada de incorporar em veículos sem motoristas, e eles sugerem que isso poderia representar uma solução viável para a ética de programação em carros autônomos.

          Agora que sabemos como implementar decisões éticas humanas em máquinas, nós, como sociedade, ainda temos um duplo dilema: em primeiro lugar, temos que decidir se os valores morais devem ser incluídos nas diretrizes para o comportamento da máquina e, em segundo lugar, se as máquinas deveriam funcionar exatamente como os seres humanos.

        Há armadilhas claras com ambas as questões. Os carros de autônomos apresentam um caso óbvio em que uma máquina poderia ter que tomar decisões éticas de alto risco, em que a maioria das pessoas concordaria ser bastante fácil de escolher. Mas, uma vez que você começa a programar a tomada de decisões éticas em alguns sistemas autônomos, pode ser difícil saber onde desenhar a linha divisória.

         Um programa de computador projetado para decidir sobre pedidos de empréstimo, também deve ser feito para imitar os julgamentos morais que um trabalhador do banco humano provavelmente faria se estivesse cara a cara com um cliente? Como determinar se deveria ou não ser concedido fiança a um criminoso?

        Ambos representam exemplos reais de sistemas autônomos que operam em contextos onde um ser humano provavelmente incorporaria julgamentos éticos na sua tomada de decisão. Mas, ao contrário do exemplo do carro autônomo, o julgamento de uma pessoa é afetado por sua experiência de vida, além de pontos de vista políticos. Desse modo, modelar esses tipos de decisões pode não ser tão fácil.

          Mesmo que o comportamento humano seja consistente, isso não significa que é necessariamente a melhor maneira de fazer as coisas. Os seres humanos nem sempre são muito racionais e podem ser afligidos por todos os tipos de preconceitos que poderiam alimentar sua tomada de decisão.

        Uma alternativa, porém, é a codificação manual da moral nessas máquinas - repleta de complicações. Para começar, as chances de alcançar um consenso inequívoco sobre o que as máquinas devem aderir sobre códigos éticas são pequenas. E mesmo que se conseguissem, um estudo em junho passado sugere que não resolveria necessariamente o problema. Uma pesquisa de residentes dos EUA descobriu que a maioria das pessoas pensam que os carros autônomos devem ser governados por uma ética que visaria minimizar o número total de mortes em um acidente, mesmo que prejudique os passageiros. Mas também descobriu que a maioria dos inquiridos não entrariam nestes veículos ou apoiariam regulamentos que aplicassem algoritmos utilitários sobre eles.

       Em face de tais complexidades, a programação de tais veículos para imitar a tomada de decisão instintiva das pessoas pode ser uma alternativa atrativa. Para começar, a construção de modelos de comportamento humano exigiu que os pesquisadores coletassem dados e os alimentem em um sistema de aprendizado de máquinas.

    Ao basear o comportamento dos carros autônomos em um modelo de nossa tomada de decisão coletiva, nós, de certa forma, compartilharemos a responsabilidade pelas decisões que eles tomam.    

         Resumindo, os seres humanos não são perfeitos, mas ao longo dos milênios, desenvolveram algumas regras muito positivas para a vida. Um estudo citado descobriu que é surpreendentemente fácil modelar a forma como os humanos fazem isso, abrindo uma oportunidade potencial para resolver o enigma.


Original em inglês aqui

Extraído da Folha de SP, leia original aqui

Se você leu até aqui, está se mostrando uma pessoa diferenciada e interessada pelo assunto. Parabéns!

Tenho curiosidade em saber sua opinião e sugestões: escreva para mim.

Abs,

- Calado