Com vistas no cenário catastrófico que os experimentos de Inteligência Artificial (IA) criaram, Elon Musk e outros especialistas da área “pedem uma pausa”. Uma carta aberta foi assinada por eles citando os potenciais riscos para a sociedade.
Tanto Musk quanto Steve Wozniak passaram a instar os laboratórios de IA a interromper o desenvolvimento dos novos e poderosos sistemas da atualidade.
Musk é sempre citado por sua mente visionária e por se destacar como o “homem mais rico do mundo” — fundador e líder de empresas como a SpaceX, Tesla, Neuralink, SolarCity e Twitter. Além disso, seus projetos beiram à ficção científica, como a “colonização de Marte”.
O engenheiro eletrônico, Steve Wozniak, é cofundador da Apple e participante da revolução no mundo dos computadores, com 10 títulos de doutorado em sua área e uma medalha nacional da tecnologia.
‘IA pode colocar em risco a sobrevivência da humanidade’
A carta divulgada pelo “Future of Life Institute”, na quarta-feira (29), aos desenvolvedores de IA, pede para que seja “pausado imediatamente por pelo menos 6 meses o treinamento de sistemas que são mais poderosos que o GPT-4 e cujas habilidades possam competir com os seres humanos em qualquer área”.
Segundo o grupo que assinou a carta aberta, composto por empresários, acadêmicos e pesquisadores, o desenvolvimento de IA´s está “fora de controle” e pode colocar em risco a própria sobrevivência da humanidade”.
Mais de 1.000 especialistas assinaram a carta, alertando: “Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”.
A carta adverte ainda que, nesta fase, “ninguém pode entender, prever ou controlar de forma confiável” as poderosas novas ferramentas desenvolvidas em laboratórios de IA.
Os especialistas em tecnologia citam os riscos de propaganda e mentiras espalhadas por meio de artigos gerados por IA que parecem reais, e até mesmo a possibilidade de que os programas de IA possam superar os trabalhadores e tornar os empregos obsoletos.
‘Há necessidade de controle e segurança’
Para os especialistas, antes de avançar com os projetos, há necessidade de que os laboratórios implementem um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA, que são rigorosamente auditados e supervisionados por especialistas externos independentes.
“Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA”, diz a carta.
Os signatários incluem o CEO da Stability AI, Emad Mostaque, pesquisadores da DeepMind, de propriedade da Alphabet, bem como os pesos pesados da IA, Yoshua Bengio e Stuart Russell.
Todos enfatizam que o desenvolvimento da IA em geral não deve ser interrompido, mas cuidadosamente fiscalizado, já que estão compondo uma “corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes”.
De acordo com o registro de transparência da União Europeia, o Future of Life Institute é financiado principalmente pela Fundação Musk, bem como pelo grupo de altruísmo eficaz com sede em Londres, Founders Pledge, e pela Silicon Valley Community Foundation.
Qual o limite?
A carta é carregada de preocupação quando faz os seguintes questionamentos: “Deveríamos automatizar todos os trabalhos, inclusive os mais gratificantes? Deveríamos desenvolver mentes não-humanas que poderiam, eventualmente, nos superar em número e em inteligência, nos tornando obsoletos e nos substituindo?”.
“Deveríamos nos arriscar a perder o controle de nossa civilização? Essas decisões não devem ser delegadas para líderes do setor de tecnologia não-eleitos. A sociedade já suspendeu outras tecnologias com efeitos potencialmente catastróficos. Podemos fazer o mesmo aqui”, continua.
“Acho que devemos fazer uma pausa, e não tenho certeza se o público em geral realmente entende como todas as suas vidas vão mudar, e podem potencialmente mudar, por causa dessa nova tecnologia”, disse o pastor americano Johnnie Moore em seu Twitter.
Em entrevista ao Faithwire da CBN News, o líder cristão destacou os pontos positivos da IA, como trazer uma saúde melhor e vidas mais longas, entre outros benefícios, mas alerta sobre o que pode acontecer de ruim caso não haja monitoramento ou caso for controlada por governos mundiais sem escrúpulos.
‘Podemos soltar uma fera’
“Se não tomarmos cuidado, podemos soltar uma fera. Imagine governos em uma corrida por armas autônomas. Poderíamos estar entrando em um mundo onde as máquinas tomam as decisões por si mesmas”, disse o pastor.
Moore alerta ainda que tal situação questiona como abordar a ética da guerra e outros mecanismos baseados na emoção humana: “Por exemplo, muitas vezes tenta-se minimizar as baixas nas guerras modernas, embora outros possam usar essas tecnologias para um resultado diferente”.
“E se a IA chegar à Coreia do Norte e decidir por sua própria inovação, que agora é a hora de fazer o que vem ameaçando fazer desde sempre? Esse é o cenário catastrófico. Esse é o apocalipse”, relacionou.
O pastor ainda citou o desemprego em massa e disse que os líderes cristãos e pessoas de fé devem fazer parte dessa conversa: “Mas os líderes religiosos são frequentemente excluídos”.
“Estou apelando aos líderes religiosos — isso não é uma 'conversa de boicote sobre IA’. Estou juntando minha voz com Elon Musk e aqueles 1.000 cientistas e estou alertando que é hora de nos reunirmos e falarmos sobre prevenção”, compartilhou.
“Todos aqueles filmes de ficção científica que você assistiu, estamos prestes a vivê-los, tirando a parte dos alienígenas. E tudo de bom e de ruim será percebido por nós. As decisões que vamos tomar agora determinarão a vida que nossos filhos terão”, concluiu.
Sua avaliação é importante para entregarmos a melhor notícia
O Guiame utiliza cookies e outras tecnologias semelhantes para melhorar a sua experiência acordo com a nossa Politica de privacidade e, ao continuar navegando você concorda com essas condições