Por: Adam Clark Estes
Imagine um futuro em que robôs autônomos tomam decisões de vida ou morte com base não apenas em dados, mas também em um código moral pré-programado. Não estamos falando de uma história distópica. E sim de um programa do Pentágono, nos EUA, que é assustador.
Imagine um futuro em que robôs autônomos tomam decisões de vida ou morte com base não apenas em dados, mas também em um código moral pré-programado. Não estamos falando de uma história distópica. E sim de um programa do Pentágono, nos EUA, que é assustador.
Ao longo dos próximos cinco anos, o Escritório de Pesquisa Naval vai conceder US$ 7.5 milhões para pesquisadores universitários criarem um robô que sabe exatamente o que é certo e o que é errado. Esse senso de consequência moral pode fazer com que sistemas autônomos operem com mais eficiência e, bem, autonomamente. Algumas pessoas podem até pensar que máquinas podem tomar decisões melhores que seres humanos, já que elas só podem seguir as regras para as quais foram definidas e calculam as consequências a partir de diferentes cenários.
Faz um pouco de sentido quando vemos desta forma. “Com drones, mísseis, veículos autônomos e outros, os militares estão rapidamente criando sistemas que precisam tomar decisões morais”, explicou o pesquisador de AI Steven Omohundro ao Defense One. “Vidas humanas e propriedades dependem dos resultados dessas decisões, e por isso é fundamental que isso seja feito com cuidado e pleno conhecimento das capacidades e limitações dos sistemas envolvidos. Os militares sempre tiveram que definir ‘as regras da guerra’ e essa tecnologia deve aumentar essa necessidade.”
Por outro lado, programar robôs com um certo código moral significa que todos temos concordar com este código moral. Sem me aprofundar em filosofia, é fácil entender como isso pode ser uma tarefa bastante controversa. Mesmo que o poder do processamento computacional possa ser útil, digamos, em um hospital, é bem complicado quando estamos apontando mísseis contra pessoas.
“Não acho que eles vão desenvolver um robô ético ou moral”, disse Noel Sharkey, outro especialista em inteligência artificial, em resposta ao artigo. “Para isso, precisaríamos de uma agência moral. Para isso precisamos entender os outros e saber o que significa o sofrimento. O robô pode ser instalado com algumas regras de ética, mas não importa. Ele vai seguir as ideias de ética do seu projetista humano.”
O debate pode se estender muito além disso. Vale a pena se aprofundar nele, já que dependemos cada vez mais de máquinas. E pesquisas indicam que já temos robôs moralmente responsáveis por suas ações. Por que não programar moral para alguns deles? Talvez porque eles podem decidir que a coisa certa a se fazer é tomar o controle do mundo e eliminar os seres humanos fracos. Asimov já nos disse como essa história termina.
Fonte > GIZMODO
Nenhum comentário:
Postar um comentário