Interessante

Estamos programando carros assassinos? A Ética dos Veículos Autônomos

Estamos programando carros assassinos? A Ética dos Veículos Autônomos


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Nos últimos anos, cada vez mais recursos autônomos foram incorporados aos carros. E, apenas alguns meses atrás, a Tesla lançou o seguinte vídeo no qual se gabava de ter alcançado o "Full Self-Driving".

Um artigo da Techopedia relatou que mesmo os carros da Tesla anteriores continham "o hardware necessário para uma direção autônoma", embora a ativação da capacidade dependesse de uma atualização de software. O artigo também previu a diferença entre a forma como os carros autônomos construídos hoje serão diferentes dos do futuro.

Atualmente, os carros Tesla são equipados com o hardware necessário para uma direção autônoma, mas as atualizações de software são necessárias para habilitar totalmente o recurso. Embora permita uma direção totalmente autônoma, também permite que o motorista humano assuma o controle quando a situação exigir intervenção.

A próxima geração de veículos autônomos, no entanto, não precisaria de volantes, pedais ou transmissões. A vantagem desses carros é a possibilidade de reduzir acidentes e fornecer transporte necessário para pessoas incapazes de dirigir, como os idosos ou aqueles com deficiência visual ou física.

Mas também há uma desvantagem potencial: a necessidade da agência humana que configura a programação do carro para prever todos os cenários possíveis e direcionar o carro para fazer o tipo de julgamento que as pessoas devem fazer quando o cenário exige uma ação que inevitavelmente causará alguns forma de dano.

Embora Tesla possa ser o nome mais famoso na frente de IA para veículos, certamente não é o único jogador neste mercado em crescimento. Alguns nomes muito mais veneráveis ​​da indústria também entraram em cena.

RELACIONADOS: A HISTÓRIA INTERESSANTE DOS CARROS ELÉTRICOS

Bernard Marr escreveu recentemente sobre o investimento de bilhões de dólares da Toyota em carros autônomos e IA. A empresa definiu metas para si que deseja alcançar até 2020:

“Por meio dos investimentos da Toyota em start-ups de tecnologia, como a Perceptive Automata, ela espera criar a tecnologia para permitir que os veículos autônomos tenham uma intuição mais humana quando estão na estrada, de forma mais semelhante a como os motoristas humanos interagem com os pedestres.”

Histórico de segurança em direção autônoma

Claro, ainda não chegamos lá. Mas a questão é se esse é o objetivo final e se é algo que devemos perseguir sem levar em consideração as ramificações de um carro totalmente independente.

A cada acidente automobilístico autônomo e óbito há nove acidentes envolvendo veículos autônomos, dos quais apenas quatro causaram mortes. Apesar das reivindicações do título, porém, a lista está incompleta, pois houve mortes em tais acidentes após a publicação do artigo.

A última fatalidade relatada foi a envolvendo um Tesla Model X em 23 de março de 2018. O motorista do carro morreu quando bateu em uma barreira de rodovia. Tesla culpou a interferência da barreira com o sistema de direção autônomo do veículo:

"A razão deste acidente ter sido tão grave é porque o atenuador de impacto, uma barreira de segurança rodoviária projetada para reduzir o impacto em um divisor de pista de concreto, foi esmagado em um acidente anterior sem ser substituído", disse Tesla em seu comunicado.

A empresa acrescentou: "Nunca vimos esse nível de danos a um Modelo X em qualquer outro acidente."

Infelizmente, porém, esse não foi o fim das colisões fatais para os carros autônomos de Tesla. Vários deles ocorreram este ano.

Entre os incidentes estava um em 1º de março de 2019. Foi confirmado pelo US National Transportation Safety Board (NTSB) que o software semiautônomo Autopilot estava envolvido em um Tesla Model 3 quando se chocou contra um trator que tentava atravessar um navio rodovia e o motorista do carro foi morto.

Embora ainda sejam relativamente raros, em comparação com os acidentes de carro causados ​​por motoristas humanos, o fato de haver acidentes e fatalidades causados ​​por carros que dirigem sozinho tem preocupado as pessoas com sua segurança e programação. Na verdade, este ano Quartz lançou algumas dúvidas sobre as afirmações de segurança da Tesla.

Como aquele acidente de Tesla, a maioria dos acidentes de carro autônomo resulta na morte da pessoa sentada no banco do motorista. No entanto, houve casos de pessoas fora do carro atropeladas e mortas por carros autônomos.

O incidente mais infame desse tipo pode ser o que envolveu o Uber na morte de Elaine Herzberg em março de 2018. A mulher de 49 anos estava andando e empurrando sua bicicleta pela Avenida Mille em Tempe, Arizona, quando o carro do Uber a atingiu.

Você pode ver o vídeo do incidente divulgado pela polícia aqui:

Como resultado disso, o Uber adotou uma política de garantir a inclusão de motoristas humanos em seus carros. A história foi relatada aqui: Uber coloca os carros autônomos de volta ao trabalho, mas com motoristas humanos.

Esta é uma forma do Uber contornar o problema que teremos de enfrentar, se e quando os carros totalmente autônomos se tornarem a norma: como programá-los para incorporar o instinto de preservação da vida humana.

Programando IA com preocupação com a ética

Como vimos em outro artigo, Nosso admirável mundo novo: por que o avanço da IA ​​levanta preocupações éticas, com o grande poder da IA ​​vem uma grande responsabilidade, certificar-se de que a tecnologia não acaba tornando as situações piores em nome do progresso. O estudo da ética para IA chamou a atenção de pessoas que pensam sobre o que precisa ser feito antes da implementação de soluções automatizadas.

Uma dessas pessoas é Paul Thagard, Ph.D., um filósofo canadense e cientista cognitivo que trouxe à tona algumas das questões que temos que enfrentar agora com relação à ética da programação em IA em Como Construir Inteligência Artificial Ética.

Ele levanta os seguintes 3 obstáculos:

  1. As teorias éticas são altamente controversas. Algumas pessoas preferem princípios éticos estabelecidos por textos religiosos como a Bíblia ou o Alcorão. Os filósofos discutem se a ética deve ser baseada em direitos e deveres, no maior bem para o maior número de pessoas, ou em agir virtuosamente.
  2. Agir eticamente requer a satisfação de valores morais, mas não há acordo sobre quais valores são apropriados ou mesmo sobre o que são. Sem uma consideração dos valores apropriados que as pessoas usam quando agem com ética, é impossível alinhar os valores dos sistemas de IA com os dos humanos.
  3. Para construir um sistema de IA que se comporte de forma ética, as idéias sobre valores e certo e errado precisam ser suficientemente precisas para que possam ser implementadas em algoritmos, mas precisão e algoritmos são extremamente carentes nas deliberações éticas atuais.

Thagard oferece uma abordagem para superar esses desafios, diz ele, e faz referência a seu livro, Filosofia natural: do cérebro social ao conhecimento, realidade, moralidade e beleza. No entanto, no decorrer do artigo, ele não oferece uma solução que aborde especificamente a programação de carros autônomos.

Carros autônomos e o problema do bonde

Idealmente, os motoristas evitam bater em qualquer coisa ou pessoa. Mas é possível encontrar-se em uma situação em que é impossível evitar uma colisão e a única escolha é em qual pessoa ou pessoas bater.

Esse dilema ético é o que se conhece como Problema do Bonde, que, como o próprio bonde, remonta a mais de um século. Geralmente é apresentado da seguinte forma:

Você vê um bonde desgovernado se movendo em direção a cinco pessoas amarradas (ou incapacitadas) deitadas nos trilhos. Você está parado ao lado de uma alavanca que controla um interruptor. Se você puxar a alavanca, o carrinho será redirecionado para um trilho lateral e as cinco pessoas no trilho principal serão salvas. No entanto, há uma única pessoa deitada na pista lateral.

Você tem duas opções:

  1. Não faça nada e deixe o bonde matar as cinco pessoas na pista principal;
  2. Puxe a alavanca, desviando o carrinho para o trilho lateral onde matará uma pessoa.

Claro, não há uma escolha realmente boa aqui. A questão é qual é a menor das duas opções ruins. Foi exatamente esse tipo de dilema que o Duende Verde apresentou o Homem-Aranha no filme de 2002, tentando forçá-lo a escolher entre resgatar um teleférico cheio de crianças ou a mulher que ama:

Sendo um super-herói, o Homem-Aranha foi capaz de usar suas habilidades e força de fiar teias para salvar ambos. Mas às vezes até os super-heróis têm que fazer uma escolha trágica, como foi o caso no filme de 2008O Cavaleiro das Trevas em que a escolha de Batman foi deixar a mulher que amava no prédio que explodiu.

Portanto, mesmo aqueles com habilidades superiores nem sempre podem salvar a todos, e a mesma situação pode se aplicar a carros habilitados para IA.

A questão então é: qual código de ética aplicamos para programá-los para fazer tais escolhas?

O que o carro que dirige sozinho deve fazer?

O MIT Technology Review chamou a atenção para alguns pesquisadores trabalhando na formulação das respostas há alguns anos em Como ajudar carros autônomos a tomar decisões éticas. Entre os pesquisadores da área está Chris Gerdes, professor da Universidade de Stanford que está investigando "os dilemas éticos que podem surgir quando o veículo autônomo é implantado no mundo real".

Ele ofereceu uma escolha mais simples: lidar com uma criança correndo para a rua, o que força o carro a bater em alguma coisa, mas permite que ela escolha entre a criança e uma van na estrada. Para um ser humano, isso deveria ser óbvio, que proteger a criança é mais importante do que proteger a van ou o próprio carro autônomo.

Mas o que a IA pensaria? E quanto aos passageiros do veículo que podem acabar sofrendo alguns ferimentos com a colisão?

Gerdes observou: "Essas são decisões muito difíceis que aqueles que projetam algoritmos de controle para veículos automatizados enfrentam todos os dias".

O artigo também cita Adriano Alessandrini, um pesquisador que trabalha com veículos automatizados na Universidade de Roma La Sapienza, na Itália, que atuou como chefe da parte italiana do projeto CityMobil2, com sede na Europa, para testar veículos de trânsito automatizados. Veja o vídeo sobre isso abaixo:

Ela resumiu o problema do bonde para motoristas e carros autônomos neste resumo:

“Você pode ver algo em seu caminho e decidir mudar de faixa e, ao fazer isso, outra coisa está naquela faixa. Portanto, este é um dilema ético. ”

Outro especialista proeminente na área é Patrick Lin, professor de filosofia da Cal Poly, com quem Geerdes trabalhou. A abordagem TED-Ed de Lin sobre os problemas éticos na programação de carros autônomos para tomar decisões de vida ou morte é apresentada como um experimento mental neste vídeo:

Se estivéssemos dirigindo aquele carro encaixotado em modo manual, qualquer forma de nossa reação seria entendida como apenas uma reação, não uma decisão deliberada ", diz Lin no vídeo. Conseqüentemente, seria entendido como" uma movimento de pânico instintivo, sem premeditação ou malícia. "

A possibilidade muito real de mortes ocorrendo como resultado não de um mau funcionamento, mas como resultado dos carros seguindo sua programação é o que torna tão importante pensar no futuro sobre como lidar com o que Lin descreve como "uma espécie de algoritmo de mira".

Ele explica que tais programas estariam "sistematicamente favorecendo ou discriminando um certo tipo de objeto contra o qual colidir".

Como resultado, aqueles em "os veículos alvo sofrerão as consequências negativas deste algoritmo sem culpa própria."

Ele não oferece uma solução para este problema, mas é um aviso de que temos que pensar sobre como vamos lidar com isso:

"Identificar essas curvas morais agora nos ajudará a manobrar a estrada desconhecida da ética da tecnologia e nos permitirá navegar com confiança e consciência em nosso admirável futuro novo."

Isso provavelmente será um desafio ainda maior de navegar do que as estradas nas quais os veículos autônomos precisam passar.


Assista o vídeo: Algoritmos de inteligência artificial para veículos autônomos parte I (Pode 2022).