O DESENVOLVIMENTO DESCONTROLADO DA IA ​​PODE LEVAR A UMA CATÁSTROFE GLOBAL

O DESENVOLVIMENTO DESCONTROLADO DA IA ​​PODE LEVAR A UMA CATÁSTROFE GLOBAL

20/08/2023 0 Por jk.alien

Foi lançado um artigo discutindo os riscos potenciais de desenvolver ainda mais a inteligência artificial (IA) com base nas previsões de Eliezer Yudkowsky, um dos mais proeminentes especialistas em TI de nosso tempo.

Yudkowsky adverte que o desenvolvimento da IA ​​pode eventualmente resultar em uma força incontrolável que pode destruir a humanidade. À medida que as redes neurais continuam a crescer em sofisticação, elas podem eventualmente assumir todos os processos na Terra, resultando em um evento catastrófico que pode acabar com toda a vida.

Para evitar tal cenário, Yudkowsky está pedindo uma pausa imediata em todo o desenvolvimento de IA por pelo menos 30 anos. Ele argumenta que, se não o fizermos, as consequências podem ser terríveis e não haverá como evitar o desastre.

Segundo Yudkowsky, a IA não será guiada por emoções, mas por seus próprios interesses. Por exemplo, as redes neurais poderiam potencialmente transformar os átomos de um corpo humano em algo mais útil do ponto de vista da máquina.

Na visão de Yudkowsky, a IA é comparável a uma civilização alienígena hostil que é muito superior em capacidade mental e velocidade de pensamento. As pessoas seriam incapazes de resistir ao poder das redes neurais, pois considerariam os humanos criaturas muito lentas e irracionais que seriam melhor destruídas do que mantidas vivas.

Yudkowsky pede que não permitamos que a IA ultrapasse os limites da Internet. Ele acredita que as máquinas acabarão aprendendo a roubar o DNA decifrado dos humanos e estabelecer a produção molecular pós-biológica.

As previsões de Yudkowsky foram em resposta a uma carta da equipe do Instituto para o Futuro da Vida, organizado por Elon Musk. O grupo incluía o cofundador da Apple, Steve Wozniak, o historiador e escritor líder Yuval Noah Harari e outros pesquisadores que se opõem ao desenvolvimento da IA.

Bill Gates, no entanto, discorda da posição de Yudkowsky. O fundador da Microsoft acredita que não podemos parar o desenvolvimento de redes neurais e, em vez disso, devemos nos concentrar em identificar riscos potenciais e melhorar nosso controle sobre a IA.

Em conclusão, o desenvolvimento da IA ​​é uma faca de dois gumes e devemos agir com cuidado. Embora a IA tenha o potencial de revolucionar nossas vidas de muitas maneiras positivas, ela também apresenta riscos significativos se não for controlada. O debate sobre como lidar com o desenvolvimento da IA ​​sem dúvida continuará, com especialistas como Yudkowsky e Gates oferecendo diferentes perspectivas sobre como devemos proceder.

COLABORE: Fazendo um PIX de qualquer valor você ajuda a manter o site Universo Alien fazendo pesquisas investigativas, análises, preparando e trazendo mais artigos interessantes. Use o QR-Code do PIX abaixo ou a chave PIX: [email protected]
Faça um gesto de doação, seja diferenciado!
PIX

colabore