Deve-se temer a Inteligência Artificial? As respostas de 5 experts

artificial-intelligence-experts-fear-1400x600

Inteligência Artificial pode ser uma espécie de pedra filosofal. Ou uma caixa de pandora. Pode nos permitir combater o câncer e melhorar os serviços de saúde em todo o mundo, ou criar um pandemônio ao eliminar milhões de empregos e comandar uma revolta de robôs.

No que você aposta?

Guarde a resposta com você mesmo mais um pouco. Antes, vamos tentar separar o joio do trigo, lendo a opinião de cinco especialistas em IA mais em relação a um futuro onde conviveremos com dispositivos equipados com Inteligência Artificial avançada.

Eles participaram da The Joint Multi-Conference on Human-Level Artificial Intelligence, que foi realizada em Praga, República Tcheca, entre 22 e 26 de agosto, e foram entrevistados pelo site Futurism. A pergunta que foi feita aos cinco foi a seguinte: quando você pensa no que podemos fazer hoje – e no que seremos capazes de fazer no futuro – com a IA, o que você acha mais inquietante?

Resultado de imagem para kenneth stanley

Para Kenneth Stanley, professor da University of Central Florida, gerente de engenharia sênior e cientista da equipe do Uber AI Labs, a preocupação mais óbvia é a IA ser usada para machucar as pessoas. “Existem muitas aplicações diferentes onde você pode imaginar isso acontecendo”, alertou. “Temos que ter muito cuidado em manter a IA responsável , pois é uma questão muito complicada; tem muito mais dimensões do que apenas científicas. Isso significa que toda a sociedade precisa estar envolvida em respondê-la.” Ele acha que devemos colocar os pesos e contrapesos corretos no lugar para ficarmos mais seguros, mas confessou que não sabe o que exatamente devemos fazer a respeito.

Irakli Beridze

Irakli Beridze, chefe do Centro de Inteligência Artificial e Robótica do UNICRI, Nações Unidas, acha que a coisa mais perigosa com a IA é o seu ritmo de desenvolvimento. “Dependendo da rapidez com que se desenvolverá e com que rapidez, poderemos nos adaptar a ela”, comentou.  Mas se perdermos esse equilíbrio, poderemos ter problemas. “Eu acho que os aplicativos perigosos de IA, do meu ponto de vista, seriam criminosos ou grandes organizações terroristas, usando-a para interromper processos grandes ou simplesmente causar danos puros, via guerra digital, ou com uma combinação de robótica, drones e outras coisas que poderiam ser realmente perigosas”, disse. Ele também se referiu a outros riscos como perda de emprego. “Se tivermos um grande número de pessoas perdendo empregos e não encontramos uma solução, isso será extremamente perigoso”, afirmou. “Coisas como sistemas de armas autônomas letais devem ser adequadamente governadas – caso contrário, há um enorme potencial de uso indevido.” Para ele, IA não é uma arma, é uma ferramenta – que pode ser usada para coisas boas ou ruins. “Nossa missão”, garantiu, “é garantir que isso seja usado para as coisas boas, que os maiores benefícios sejam extraídos e que a maioria dos riscos seja compreendida e mitigada.       

john langford

John Langford, Pesquisador Principal da Microsoft, disse que devemos tomar cuidado com os drones. “Acredito que os drones automatizados são potencialmente perigosos em muitos aspectos”, falou. “A computação a bordo de armas não tripuladas não é eficiente o suficiente para fazer algo útil no momento. Mas em cinco ou dez anos, posso imaginar que um drone poderia ter computação suficiente suficiente para realmente ser útil. Você pode ver que os drones já estão sendo usados ​​na guerra, mas eles ainda são controlados por humanos. Não há razão para que eles não estejam carregando algum tipo de sistema de aprendizado e sejam razoavelmente eficazes. Então é algo que me preocupo um pouco.”

hava-siegelmann-220-235

Hava Siegelmann, Gerente de Programas do Office de Tecnologia de Microsistemas da DARPA, lembrou que toda tecnologia pode ser usada para o mal. “Eu acho que está nas mãos daqueles que o usam”, afirmou. “Eu não acho que há uma tecnologia ruim, mas sempe haverá pessoas ruins. Tudo se resume a quem tem acesso à tecnologia e como a usamos.”

mikolov

Tomas Mikolov, pesquisador do Facebook AI é bastante crítico em relação ao momento que estamos vivendo. Para ele, quando há muito interesse e financiamento em torno de algo, também há pessoas que estão abusando dele. “Acho desconcertante que algumas pessoas estejam vendendo inteligência artificial antes mesmo de estar feita, e fingindo saber que problemas vai resolver. Essas startups estranhas prometem coisas que seriam ótimos exemplos de inteligência artificial quando na verdade seus sistemas apenas hiperotimizam um único caminho que talvez ninguém nem queira seguir  [como um chatbot que é um pouco melhor que a última versão]. E, assim, depois de gastar dezenas de milhares de horas de trabalho, otimizando em excesso um único valor, algumas dessas startups venham com essas alegações grandiosas de que conseguiram algo que ninguém poderia fazer anteriormente. Mas vamos lá, vamos ser honestos: muitos dos recentes avanços desses grupos que eu não quero nomear, com as quais ninguém se importou antes, não estão gerando nenhum dinheiro. Eles são mais como truques de mágicos. Especialmente aqueles que vêem a IA apenas otimizando em excesso uma única tarefa que é muito estreita e não há como escalar para praticamente qualquer outra coisa além de problemas muito simples. Alguém que é um pouco crítico em relação a esses sistemas encontraria rapidamente problemas que vão contra as afirmações elevadas da empresa.”

Agora é sua vez — pedra filosofal ou caixa de pandora?

 

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima