quinta-feira, 22 de março de 2018

Artigo - IA não é inteligente nem artificial muito menos perfeita (nunca vai ser)

Artigo: por que carros autônomos não serão realmente autônomos


A verdade é que a Inteligência Artificial não é inteligente nem artificial; ela é feita de pessoas.
Regras aprovadas recentemente na Califórnia, nos EUA, para os “carros autônomos” colocam luz sobre um conceito errado sobre como a Inteligência Artificial (IA) funciona.
Um público com conhecimento do assunto sabe que os veículos autônomos são incríveis, mas que até o momento ainda não são capazes de assumir o controle total de um automóvel sem nenhuma pessoa atrás da direção.
É apenas uma questão de tempo até que os chamados “motoristas de segurança” – basicamente as pessoas que ficam sentadas no banco do motorista caso aconteça algum problema com a IA – saiam do veículo e deixem toda a direção para as máquinas, certo?
Vamos com calma. 
O estado da Califórnia acaba de aprovar licenças para que os carros autônomos não tenham nenhuma pessoa atrás do volante, ou mesmo no carro (após deixar um passageiro ou para realizar entregas, por exemplo), mas com uma “pegadinha”: as empresas de carros autônomos devem monitorar e poder assumir o controle da direção remotamente, quando necessário.
Essa regra corresponde a outras existentes em diferentes partes dos EUA em que os veículos autônomos sem motoristas foram permitidos. Não há nenhuma pessoa no carro, ou pelo menos no banco do motorista, mas apenas porque o monitoramento e o controle remotos tornam isso possível, seguro e legal. 
Imagino salas de controle no estilo da Nasa, cheias de operadores e telas e relatórios de tráfego, onde talvez algumas dezenas de pessoas monitoram algumas centenas de carros, para então assumir o controle deles no caso de problemas de funcionamento, “congelamentos” ou situações complexas. Também é possível que o monitoramento remoto seja feito em cubículos no estilo call-center.
Veja abaixo algumas empresas de carros autônomos que sei que já revelaram publicamente que estão construindo ou já construindo salas de controle desse tipo:
Udelv
Nissan
Waymo
Zoox
Phantom Auto
Starsky Robotics
Quais das outras companhias de carros autônomos também terão salas de controle desse tipo? Todas elas.
Pense nisso. Não são apenas os carros autônomos que precisam da ajuda humana quando a IA não é inteligente o bastante para lidar com situações inesperadas.
O mundo da IA: feito de pessoas
Para compensar a imperfeição da IA, as empresas geralmente recorrem à intervenção humana por trás das cenas. 
A ideia é que supervisores humanos vão garantir que a IA funcione bem, além de assumir um papel de professor. Quando a IA falha, a intervenção humana é uma guia para impulsionar melhorias no software. O objetivo explícito desse processo é que eventualmente a IA consiga funcionar sem supervisão. 
Lembra do Facebook M?
Era uma assistente virtual que ficava dentro do Facebook Messenger. A ideia clara por trás do projeto era fornecer uma assistente que pudesse interagir com os usuários como se fosse uma pessoa. O “produto”, neste caso, era a automação de máquinas. Mas, na verdade, havia um grupo de ajudantes humanos por trás das cenas que supervisionavam e intervinham quando necessário. Essas pessoas também estavam lá para treinar a IA a partir das suas falhas, para que ela pudesse eventualmente operar de forma independente. O Facebook imaginava uma saída gradual do envolvimento humano até o ponto da automação total.
Mas esse momento nunca chegou.
O problema com essa abordagem parece ser que, uma vez que as pessoas são inseridas no processo, a esperada “auto-obsolescência” nunca acontece. 
No caso do Facebook, a empresa esperava evoluir para além da ajuda humana, mas, em vez disso, teve de cancelar o projeto como um todo. 
O Facebook não falou mais sobre a iniciativa, mas a rede social provavelmente descobriu o que estou falando aqui agora: IA que exige ajuda humana agora provavelmente vai precisar desse auxílio indefinidamente.
Muitas outras empresas e serviços de IA funcionam assim: o valor da proposta é a Inteligência Artificial, mas na realidade é algo como "IA mais ajudantes humanos por trás das cortinas".
No mundo dos serviços baseados em IA, grandes exércitos de pessoas precisam entrar em ação para compensar a inabilidade da IA atual para funcionar da forma como queremos. 
E quem está fazendo esse trabalho? Você está, para começo de conversa.
Nos últimos 9 anos, o Google vem usando o seu sistema reCAPTCHA para autenticar usuários, que precisam provar que são pessoas de verdade. Essa prova envolve uma mistura de testes verdadeiros e falsos, em que as pessoas reconhecem coisas que os computadores não conseguiriam. 
No início, o Google usava o reCAPTCHA para ajudar os computadores a realizar o reconhecimento de caracteres ópticos (OCR) em livros e edições do The New York Times. Depois, ele passou a ajudar a IA do Google a ler endereços de ruas no Street View.
Há quatro anos, o Google transformou o reCAPTCHA em um sistema para treinamento de IA. A maior parte do treinamento é para reconhecer objetos em fotografias – os tipos de objetos que podem ser úteis para carros autônomos ou para o Street View, por exemplo. Uma situação comum é que uma foto que contenha placas de trânsito seja dividida em quadrados e que os usuários então precisem “provar que são humanos” ao clicar em todos os quadrados que contém placas de trânsito.  
O que está realmente acontecendo aqui é que a IA do Google está sendo treinada para saber exatamente quais partes dessa bagunça visual envolvem placas de trânsito (que precisam ser lidas e levadas em conta enquanto se dirige) e quais partes são apenas “ruído visual” que podem ser ignoradas por um sistema de navegação. 
Mas você é um ajudante amador de IA (e involuntário). Os treinadores e ajudantes profissionais de TI espalhados pelo mundo passam os seus dias identificando e classificando objetos virtuais ou do mundo real em fotografias. Eles testam e analisam e recomendam mudanças nos algoritmos. 
A regra de consequências não intencionais é um fator muito elevado no desenvolvimento de qualquer sistema complexo de Inteligência Artificial. Vamos ver um exemplo bastante simples abaixo.
Digamos que você programou um robô de IA para fazer um hambúrguer, embrulhar, colocar em uma sacola, e então entregá-lo ao consumidor – essa última tarefa sendo definida como colocar a sacola a cerca de 50cm do cliente de uma maneira que ele possa pegar o produto.
Agora vamos dizer que em uma situação, o cliente está do outro lado da sala, e o robô de IA joga a sacola em alta velocidade no consumidor. Você vai notar que, em um caso desses, a IA teria agido exatamente como programado, mas de forma diferente do que uma pessoa teria feito. Regras adicionais são necessárias para fazer com que ele se comporte de uma maneira civilizada.
Esse é um exemplo intenso e absurdo, mas o treinamento da Inteligência Artificial parece envolver uma série interminável desse tipo de correção porque, pela definição humana, a IA não é realmente inteligente. 
O que isso significa é: uma pessoa que se comportasse como uma IA seria considerada uma idiota. Ou podemos dizer que um funcionário que jogasse uma sacola com um hambúrguer em um cliente não tem bom senso. Em Inteligência Artificial, o bom senso não existe. Ele precisa ser meticulosamente programado em todo evento concebível. 
As pessoas precisam programar uma resposta de bom senso em todo e qualquer evento possível na IA. 
Por que a IA continuará precisando da ajuda humana
Tenho minhas dúvidas se as empresas de carros autônomos conseguirão avançar para além do cenário da sala de controle remoto. As pessoas terão de supervisionar e controlar remotamente os carros autônomos no futuro próximo.
Uma razão é proteger os carros de vandalismo, que pode vir a ser um problema de verdade. Relatos de pessoas atacando ou apenas batendo deliberadamente em carros autônomos estariam em alta recentemente. 
Também acredito que os passageiros poderão apertar um botão e falar com alguém na sala de controle, por qualquer razão que seja. Pode ser um passageiro nervoso ou que queira descansar, por exemplo: “Oi, sala de controle. Vou tirar uma soneca agora. Podem ficar de olho no meu carro?”.
Mas a maior razão é que o mundo é um lugar grande e complexo. Coisas estranhas e inesperadas acontecem. Raios caem. Pássaros voam em câmeras. Crianças apontam lasers para sensores. Se algo do tipo acontecer, os carros autônomos não podem simplesmente “enlouquecer” e agir de maneira aleatória. Eles são muito perigosos para isso.
Acredito que ainda vai levar um bom tempo, talvez décadas, antes que a gente possa confiar na IA para lidar com todos os eventos possíveis de acontecer enquanto vidas humanas estão em jogo.
Por que acreditamos que a IA é inteligente e artificial
Um fenômeno que ajuda a alimentar a ilusão da supercompetência da IA é chamado de “efeito Eliza”, que teve origem em um estudo do MIT de 1966.  As pessoas participantes do teste que usaram a Eliza (espécie de chatbot da época) informaram que perceberam empatia por parte do computador.
Hoje em dia, o “efeito Eliza” faz com que as pessoas sintam que a IA é geralmente competente, quando, na verdade, é apenas de forma limitada. Quando ouvimos falar sobre um supercomputador vencendo uma partida de xadrez, pensamos: “Se eles podem derrotar as pessoas no xadrez, eles devem ser mais inteligentes do que as pessoas inteligentes”. Mas essa é a ilusão. Na verdade, os robôs que jogam xadrez são “mais inteligentes” do que as pessoas em uma coisa, enquanto que as pessoas são mais inteligentes do que esses computadores otimizados para xadrez em um milhão de coisas.
Os carros autônomos não fazem uma coisa só. Eles fazem um milhão de coisas. Isso é fácil para os seres humanos e difícil para a IA.
Nós não superestimamos a IA – a Inteligência Artificial é realmente incrível e inovadora e vai transformar as nossas vidas - na maior parte do tempo para melhor. 
O que nós fazemos constantemente é o contrário: subestimar a inteligência humana, que permanecerá amplamente superior aos computadores em atividades centradas em pessoas para os restos das nossas vidas, pelo menos.
A evolução dos carros autônomos é uma ilustração perfeita de como a crença de que as máquinas vão funcionar por conta própria de maneiras complexas está errada.
Elas irão funcionar. Mas com a nossa ajuda constante.
A IA precisa das pessoas para ajudá-la quando ela não é inteligente o bastante para fazer o seu trabalho.

fonte:  http://idgnow.com.br/mobilidade/2018/03/22/artigo-por-que-os-carros-autonomos-nao-serao-realmente-autonomos/

Nenhum comentário:

Postar um comentário