O ex-Google Mo Gawdat, que chefia a divisão de inteligência artificial (IA) da empresa de Mountain View, disse temer o que foi criado na área, tecendo críticas abertas à empresa em uma entrevista publicada pelo site The Times.

Gawdat disse que enquanto trabalhava no Google, ele teve uma revelação surpreendente: a empresa estava desenvolvendo um sistema que permitia que robôs de armas encontrassem e pegassem uma pequena bola. Ele disse que, à medida que a pesquisa avançava, um dos braços não só tocava a bola, mas também a segurava, indicando que estava “mostrando” aos seus criadores.

Mo Gawdat, ex-chefe da divisão de inteligência artificial do Google, teme um cenário em que a IA possa “aprender muito” e se refugiar na humanidade.
A entrevista não esclareceu se a ação do braço era autônoma ou se havia de alguma forma ingressado em sua capacidade de aprender (a descrição geral fala de “reconhecer, encontrar e compreender”, e as ações teoricamente pararam por aí).

“Foi quando percebi como era assustador”, disse Gawdat, que deixou a empresa em 2017 depois que seu filho de 21 anos morreu em uma cirurgia regular. Hoje, ela responde como empreendedora digital e autora do livro “A Fórmula da Felicidade” (Editora Leya), no qual relata a experiência de lidar com perdas.

De acordo com a entrevista, Gawdat acredita que estamos nos aproximando do “intelectual artificial geral” – o tipo de IA que pode saber tudo e aplicar esse conhecimento de maneiras que ameacem a humanidade se julgar necessário. Lembra do meme “estamos criando SkyNet” como uma referência à franquia de filmes AI do Exterminador do Futuro? Gawdat se refere a ele.

“A verdade dos fatos é: nós criamos Deus”, disse ele.

Não é mais o caso de personalidades exemplares do setor de tecnologia exigirem mais cautela nas pesquisas envolvendo inteligência artificial: Elon Musk, fundador da SpaceX (e Tesla, and Boring Company, e Neuralink …) disse que, sem restrições devido à diligência e regulamentação , corremos o risco de sermos controlados por algum tipo de IA rebelde.

Essas pinceladas gerais, no entanto, ignoram alguns problemas que já existem com as tecnologias que já criamos: por exemplo, a Amazon desenvolveu o sistema de reconhecimento de reconhecimento facial, que foi oferecido para julgamento nas mãos das autoridades policiais dos Estados Unidos. A própria tecnologia acabou paralisada após relatos de que tinha um viés racista, que desenvolveu falsas identidades entre os negros por falta de uma “calibragem” adequada.

Este problema – e muitos outros – já foi mencionado pela Microsoft, que regularmente pede aos funcionários do governo em muitos países que criem regulamentações e restrições mais rígidas sobre pesquisa e desenvolvimento de IA.

Em outros casos, desenvolvedores independentes já usaram algoritmos imprevisíveis – um braço de aprendizado de máquina – para criar “nus falsos” e falsos profundos de mulheres na internet – anonimamente e celebridades – com um nível assustador de realismo.

Há também boas práticas, como um museu na Flórida dedicado ao artista surrealista Salvador Dalí: os visitantes do site interagem “diretamente” com o artista, acompanhando-os durante a mostra e comentando o próprio evento. trabalho. Ou biólogos que usam algoritmos para prever quais doenças transmitidas por animais podem infectar humanos e acelerar a busca por curas e tratamentos.

É verdade que hoje há pouca regulamentação no campo da inteligência artificial, e você provavelmente está até mesmo compartilhando do medo do antigo Google de que a empresa, de modo geral, esteja “criando Deus”. No entanto, os medos mais racionais registraram sua solução para os fatos e podem ser atacados e resolvidos com o mínimo de esforço.

Você acha que estamos sob a mira de uma declaração tecnológica? Qual a sua opinião sobre o assunto? Conte-nos nos comentários!

Play Crazy Game







Um espaço destinado a registrar e difundir o pensar dos nossos dias.