Logon
O que você está procurando?

A inteligência artificial e o dilema moral

Como ensinar moral às máquinas? Quem as ensinará?

​Hoje em dia, ser chamado de moralista é quase uma ofensa. Quer uma prova? Tente fazer isso com um amigo, chame-o de "moralista". Logo que você fizer isso, ele vai começar a se justificar.

Contudo, ao mesmo tempo, vivemos criticando situações na sociedade que consideramos como imorais como, por exemplo, a corrupção. Neste momento, somos defensores da moral (no dicionário: Que procede de maneira honesta ou correta). Logo, como defensores da moral, somos moralistas.

Mas, vale lembrar, a "moral" é algo que só verificamos nos seres humanos. Nenhum animal passará a tarde pensativo, tentando lidar com seus dilemas morais.

Se é assim com os animais, pior com as máquinas. Por mais capazes que sejam em realizar tarefas com rapidez e precisão, ainda que se possa as ensinar a serem autossuficientes, como lhes podemos ensinar a "moral".

Na verdade, são duas perguntas que se apresentam: 


Como ensinar moral às máquinas?  

Quem as ensinará?​



No estudo do homem moderno, muitos pensadores já chegaram a conclusão de que a moral só pode se justificar, se sua origem for alguém com autoridade superior a todos os demais. No caso das crianças, seus pais. No caso do homem, Deus. E no caso da máquina. Quem poderá exercer este papel?

Parece uma questão apenas filosófica,​​ mas não. ​Já temos alguns casos práticos. Quer ver?

O "robot" preconceituoso:


Em março de 2016, a Microsoft lançou um perfil no Facebook. O perfil era controlado por um software que simulava a conversação dos seres humanos. No caso, tentava simular um adolescente se expressando, com gírias e linguajar típico da faixa etária. Respondia de forma natural e descontraída aos posts dos usuários. A matéria prima do seu "aprendizado" eram as conversas e situações dos adolescentes na internet. Cada vez que os usuários interagiam com o perfil, mais ele aprendia. ​Se tornando, cada vez mais parecido com os adolescentes que interagiam com ele.

Poucos dias depois, após inúmeras reclamações, o perfil foi tirado do ar pelo fabricante, com direito a pedido de desculpas do vice-presidente corporativo, mas porque?

O perfil automatizado, começou a fazer postagens "ofensivas e preconceituosas". O projeto foi considerado um fracasso.

Mas será mesmo? O objetivo não era aprender com as pessoas ao redor? 

Não teria a máquina aprendido a 
ser preconceituosa justamente com 
as pessoas ao seu redor?

Me parece que, tecnicamente falando, o projeto foi um sucesso. O que incomodou as pessoas foi a incapacidade da máquina em entender o que é moralmente correto e o que não é. Apenas repetiu o que aprendeu, e aprendeu bem, mas aprendeu "o mal".

O identificador de fotos "moralista"


Depois dessa situação, todo cuidado é pouco. Temos desenvolvido nosso próprio "bot" por aqui, por isso, tenho testado ferramentas de análise cognitiva. Uma que testei pessoalmente, tenta, com base em seu "conhecimento" prévio identificar a pessoa em uma foto. Você pega a foto, a ferramenta analisa e tenta dizer quem é.

Das pessoas famosas como Obama, João Paulo II e outras. O índice de acerto é bastante alto. Mas, havia lido que a ferramenta tinha um tipo de "trava moral". Então, fui checar.

De fato. Funciona muito bem em qualquer situação, mas quando deparada com a foto de Adolf Hitler, ela se "recusa" a identificar a pessoa na foto e reponde com uma mensagem curiosa:

- I'm not feeling the best right now. Try again soon?

Em tradução livre:
- "Não estou me sentindo muito bem agora. Você tenta novamente daqui a pouco?

Curioso imaginar, independente da história, porque reconhecer a pessoa na foto pudesse ser considerado ruim. E ainda, se fosse, qual é o conjunto de regras morais que estão sendo colocadas ali, e avalizadas por quem.


O carro "assassino"


Em outubro de 2016, a Mercedes Benz lançou um sistema de assistência ao condutor, um tipo de inteligência que tende a pilotar o carro em lugar do proprietário. Na apresentação, Christoph von Hugo, gerente do desenvolvimento, fez uma declaração que causou desconforto:


"Se você sabe que po​de salvar 
apenas uma vida, então salve. 
Salve a vida que está no carro."​


A imprensa logo chegou à conclusão lógica óbvia. Numa situação de acidente iminente, se o carro tiver de escolher entre salvar a vida do proprietário da Mercedes ou salvar a vida de um pedestre, a escolha já estaria feita. O pedestre morreria.

Mas não foi uma frase mal explicada. Na apresentação, von Hugo justificou a decisão dizendo que, "se as vidas das pessoas dentro do carro não forem garantidas, suas consequências também não poderiam ser", exemplificando que se essa decisão não for tomada, um acidente ainda pior poderia ocorrer.

Acreditando que a automação dos automóveis poderia reduzir o número de acidentes, acrescentou: "Acreditamos que, no futuro, esta questão ética não será tão relevante quanto as pessoas acreditam hoje"

Mas muitos estão preocupados com isso.


Lucros versus o dilema moral


Em junho de 2016, a revista Science publicou uma pesquisa sobre este tema: The social dilemma of autonomous vehicles. Entrevistando cerca de 2 mil pessoas, mostrou que a maioria dos entrevistados prefere que o automóvel faça a opção que resulte no menor número de mortes, independente de quem seja.

Mas, convenhamos, as empresas estão há muito, mais preocupadas com as vendas do que com os dilemas morais. Só no campo do automobilismo podemos nos lembrar do famoso caso americano do "Ford Pinto" na década de 70.

No projeto original do carro, o tanque de combustível ficava muito próximo ao para-choques. Por conta disso, alguns acidentes causavam grave incêndio, colocando em risco seus proprietários. Um estudo interno da Ford, justificava que era mais rentável para a empresa pagar os danos aos acidentados, do que alterar o projeto do carro.

Mas a Mercedes identificou o outro lado que a pesquisa também identificou. As pessoas disseram que só comprariam um carro automatizado se sua segurança fosse a prioridade, mesmo que isso possa ser incompatível com sua opção moral.

Mas, apesar de defender a tese e mostrar alguma "certeza", não caiu bem para o grande público, e a própria Mercedes teve de se explicar.  A empresa alemã Daimler AG, proprietária da marca, soltou comunicado tentando explicar a situação, dizendo que:

  • "Para Daimler está claro que nem os programadores nem sistemas automatizados têm o direito de pesar o valor de vidas humanas.

  • O nosso trabalho de desenvolvimento se concentra em evitar completamente situação do dilema, por exemplo, implementand​o estratégia operacional para evitar riscos em nossos veículos.

  • Não há nenhuma instância em que fizemos uma decisão em favor dos ocupantes do veículo. Nós continuamos a aderir ao princípio de fornecer o mais alto nível possível de segurança para todos os usuários das estradas.

  • Fazer uma decisão em favor de uma pessoa e, portanto, contra outra não é legalmente permitido na Alemanha. Existem leis semelhantes em outros países também.

  • ​Para esclarecer estas questões do direito e da ética no longo prazo, será necessária uma ampla discussão internacional. Esta é a única maneira de construir um consenso global e promover a aceitação pelos resultados.

​​​Como fabricantes, vamos implementar o respectivo enquadramento legal e o que é considerado socialmente aceitável."

O problema não é simples. Mas se pensarmos, o dilema moral do homem parece sempre ter uma resposta única, da qual já se sabe. Ela tem origem na "lei natural" que o homem conhece em si mesmo, e que faz com que, no final, sempre saibamos o que é correto fazer.

Resta saber se o desejo por fazer o que é certo, é maior do que o desejo por permanecer vivo.

 


Feito com muito pela Mult-Connect

Onde Estamos

Rua Teodoro Sampaio, 1765 - 8º andar

Pinheiros - São Paulo - SP - Cep: 05405-150

®2017 Mult-connect
Todos os Direitos Reservados