Elon Musk doa milhões para prevenir máquinas assassinas
Página principal Tecnologia

O CEO da Tesla Motors e da Space X está preocupado com o surgimento de inteligência artificial que possa ser prejudicial para a humanidade, doando milhões a um instituto que fará pesquisas no sentido de manter a inteligência artificial benéfica. Conseguirão criar uma inteligência artificial com o sentido humano de moral?

Elon Musk doou milhões ao Instituto Future of Life, e agora a organização vai utilizar esse dinheiro para financiar investigações sobre como manter a inteligência artificial "robusta e benéfica" – ou seja, algo que não vai acabar por se voltar contra a humanidade ao estilo da Skynet. O instituto anunciou esta semana que vai entregar subsídios a 37 equipas de investigação, reduzidas de um grupo de pelo menos 300. As equipas estão a cuidar do assunto relacionado com a inteligência artificial assassina de diferentes formas, incluindo ensinar à inteligência artificial o que os humanos querem, alinhar os interesses dos robôs com os nossos próprios interesses, e manter a inteligência artificial sob controlo humano.

O instituto forneceu este resumo destacando algumas das subvenções:

  • Três dos projetos estão a desenvolver técnicas para que os sistemas de inteligência artificial aprendam aquilo que os seres humanos preferem a partir da observação do nosso comportamento, incluindo projetos na UC Berkeley e na Universidade de Oxford
  • Um projeto de Benja Fallenstein no Instituto de Pesquisa de Inteligência das Máquinas sobre como manter os interesses dos sistemas superinteligentes alinhados com os valores humanos
  • Um projeto liderado por Manuela Veloso da Universidade Carnegie Mellon está a tentar que os sistemas de inteligência artificial sejam capazes de explicar as suas decisões aos seres humanos
  • Michael Webb, da Universidade de Stanford, está a realizar um estudo sobre como manter benéficos os impactos económicos da inteligência artificial
  • Um projeto liderado por Heather Roff está a estudar como manter as armas comandadas pela inteligência artificial sob um "controlo humano significativo"
  • Um novo centro de pesquisas em Oxford-Cambridge para estudar as políticas relacionadas com inteligência artificial

No total, cerca de $7 milhões serão divididos entre as equipas de pesquisa, vindos de Musk e do Projeto Open Philantropy. A maioria dos projetos devem começar este setembro, e o instituto tem a intenção de mantê-los financiados durante e até três anos.

O programa também tem $4 milhões suplementares, que serão distribuídos mais tarde, enquanto o instituto determina quais as áreas de pesquisa que parecem ser mais promissoras.

Apesar de existir muito para falar sobre esta pesquisa que está a ser feita para evitar uma situação como aquela que vemos no Terminator, o instituto está agora explicitamente a tentar minimizar esse tipo de linguagem. O presidente do Instituto Future of Life, disse Max Tegmark num comunicado:

“O perigo com o cenário encontrado no Terminator não é que ele pode acontecer, mas o facto de que ele acaba por distrair as pessoas dos verdadeiros problemas levantados por uma futura inteligência artificial. Estamos concentrados, e as 37 equipas apoiadas pelas concessões atuais devem ajudar a resolver os verdadeiros problemas como estes que aqui se apresentam."

É uma afirmação justa: o instituto está a pensar em algumas preocupações muito práticas, incluindo como otimizar o impacto econômico da inteligência artificial, para que não crie uma maior desigualdade de rendimentos, destruindo postos de trabalho. Está também a considerar a forma como a inteligência artificial deve lidar com dilemas éticos, tal como ser colocada num acidente de carro inevitável e tendo à sua disposição opções diferentes.

Dito isto, há bastantes preocupações acerca de robôs assassinos na mistura. Musk, o presidente executivo da Tesla e da SpaceX, afirmou claramente que é uma preocupação sua. Ele mencionou o Terminator no passado enquanto discutia as suas preocupações sobre a evolução da inteligência artificial e afirmou que ela tem o potencial para ser “mais perigosa que as armas nucleares.” Uma parte dos objetivos do Instituto Future of Life é evitar essa possibilidade, certificando-se que a inteligência artificial continua sob o controlo humano e a agir segundo os melhores interesses dos seres humanos. Estes 37 projetos são os primeiros a dar início a este processo. Pode parecer um exagero – mas Musk e os outros membros do instituto preferem que a pesquisa seja feita agora, em vez de quando a poderosa inteligência artificial estiver por todo o lado.

Por favor, descreva o erro
Fechar