Cientistas alertam: “Não seremos capazes de controlar as seguintes máquinas inteligentes”

Cientistas alertam: “Não seremos capazes de controlar as seguintes máquinas inteligentes”

13/12/2021 0 Por Jonas Estefanski

Segundo cientistas de vários países, não existe algoritmo capaz de controlar uma superinteligência artificial, tornando-a potencialmente perigosa para a humanidade.

Inteligência Artificial (IA)

A inteligência artificial (IA) é um dos campos mais avançados e promissores da ciência no futuro próximo. De melhores sistemas de manuseio automático em carros, aviões, barcos ou sistemas de transporte de massa até robôs como os desenvolvidos pela Boston Dynamics, o tempo em que as máquinas de IA são uma parte ativa e visível de nossa sociedade está cada vez mais perto.

A inteligência artificial (IA) pode ser incontrolável, dizem os cientistas  

Existem aqueles que vêem esses avanços com suspeita e até medo, talvez alimentados por tantas histórias de ficção científica como a malévola Skynet da saga Terminator , ou os andróides de I, Robot, só para citar alguns. Mas agora são os mesmos cientistas que alertam sobre os perigos das máquinas superinteligentes, que, dizem eles, podem se tornar incontroláveis.

As máquinas virtuais podem ser incontroláveis

A indicação é de uma equipe internacional de pesquisadores, incluindo cientistas do Centro de Humanos e Máquinas do Instituto Max Planck para o Desenvolvimento Humano, que, por meio de cálculos teóricos, alertaram que a Inteligência Artificial pode ultrapassar a humanidade a ponto de ser perigosa, pois seria fundamentalmente impossível de controlar.

“Uma máquina superinteligente que controla o mundo parece ficção científica. Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad “, dice el coautor del estudio Manuel Cebrian, líder del Grupo de Movilización Digital en el Centro de Humanos y Máquinas, Instituto Max Planck para el Desenvolvimento Humano.

Como poderíamos controlar uma máquina inteligente?

Os cientistas exploraram duas ideias diferentes sobre como você pode controlar uma IA superinteligente. Por um lado, as capacidades da IA ​​superinteligente podem ser especificamente limitadas, por exemplo, isolando-a da Internet e de todos os outros dispositivos técnicos, de modo que não possa ter contato com o mundo exterior; no entanto, isso tornaria a IA superinteligente significativamente menos poderosa, menos capaz de responder às missões de humanidades.

Maquina inteligente
Maquina inteligente

Sem essa opção, a IA poderia ser motivada desde o início a buscar apenas objetivos que sejam do melhor interesse da humanidade, por exemplo, programando princípios éticos nela. No entanto, os pesquisadores também mostram que essas e outras ideias contemporâneas e históricas para controlar a IA superinteligente têm seus limites. Em seu estudo, a equipe desenvolveu um algoritmo de contenção teórico que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, primeiro simulando o comportamento da IA ​​e interrompendo-o se for considerado prejudicial. Mas uma análise cuidadosa mostra que, em nosso paradigma de computação atual, tal algoritmo não pode ser construído.

“Se você dividir o problema em regras básicas de computação teórica, descobre-se que um algoritmo que instruiria uma IA a não destruir o mundo poderia inadvertidamente interromper suas próprias operações. Se isso acontecesse, você não saberia se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inútil ”, diz Iyad Rahwan , diretor do Center for Humans and Machines.

De acordo com esses cálculos, o problema de contenção é incomputável, ou seja, nenhum algoritmo pode encontrar uma solução para determinar se um AI causaria dano ao mundo. Além disso, os pesquisadores mostram que podemos nem saber quando as máquinas superinteligentes chegaram, porque decidir se uma máquina exibe inteligência superior à dos humanos está no mesmo reino do problema de contenção.

FONTE