Carta contra ai: elon musk e especialistas pedem pausa no desenvolvimento

Carta contra AI: Elon Musk e especialistas pedem pausa no desenvolvimento 376ws

Avatar de jefferson tafarel
Carta contra AI assinada por mais de 1000 especialistas alerta sobre os riscos da corrida no desenvolvimento de modelos de Inteligência Artificial (AI) e pede 6 meses de suspensão de atividades

O CEO do Twitter, Elon Musk e o historiador famoso pelo livro Uma Breve História da Humanidade, Yuval Noah Harari, entre outros especialistas, pesquisadores e cientistas, resolveram uma carta em que pedem uma pausa na atualização e desenvolvimento de IA. 723n4n

A carta em questão foi produzida pelo Future of Life Institute (Instituto do Futuro da Vida, em tradução livre) e recomenda um hiato no desenvolvimento de sistemas de artificial intelligence (AI) de pelo menos seis meses, que seja transparente. Saiba mais sobre o conteúdo do documento, veja a tradução do texto na íntegra e fique por dentro das discussões em torno do tema a seguir.

O que a carta contra AI fala sobre inteligência artificial? 3e5ue

Os trabalhos autônomos e o aumento da desinformação são duas das principais preocupações com tecnologias de IA apontadas na carta. O conteúdo do texto demanda, ainda, que o momento de suspensão do desenvolvimento com ferramentas como GPT-4, Midjourney e soluções com IA semelhantes precisa ser “público e verificável”.

Em relação a investimentos, a carta também aborda como a OpenAI, Microsoft e Google estão em uma corrida tecnológica sem olhar atento a como os governos e as instituições públicas estão com dificuldade para acompanhar cada novo o. Ou seja, segundo o documento, o setor de IA está entrando numa velocidade cada vez mais difícil de acompanhar e mesmo os próprios atores envolvidos com a tecnologia reconhecem isso.

“Se essa pausa não puder ser regulada de forma rápida, os governos devem intervir e instituir uma supensão”

Carta do Future of Life Institute
A carta que pede um freio nas soluções com IA que estão sendo desenvolvidas tem adesão de especialistas como Tristan Harris, que já foi funcionário da Google no setor de produtos (Imagem: Michael Kovac/Getty Images).

O texto faz menção também a laboratórios de IA que produzem tecnologias, mas não conseguem fazer avaliações precisas e nem mesmo são de capazes de ter controle sobre essas mentes digitais. O que intriga os signatários — desde o co-fundador da Apple, Steve Wozniak, ando por pesquisadores pioneiros como Yoshua Bengio e Stuart Russel, até o ex-filósofo de produtos do Google, Tristan Harris — são perguntas envolvendo o alcance de disseminação de informações falsas, a substituição das mentes humanas e o próprio “controle da nossa civilização”. Nesse sentido, o documento também atenta para o melhor momento de investimento:

“Sistemas de IA poderosos devem ser desenvolvidos apenas quando nós tivermos confiança que seus efeitos serão positivos e seus riscos serão istrados.”

Carta do Future of Life Institute

Future of Life Institute e tecnologia responsável 67540

Fundado em 2015, a partir de um investimento do Elon Musk, o Future of Life Institute busca afastar os novos avanços tecnológicos de possíveis riscos à vida, tanto para a humanidade como para outros seres vivos. A organização está atenta não só a IA, mas também monitora as produções em áreas como biotecnologia e energia nuclear. Esse esforço do instituto para dar e à responsabilidade tecnológica tem como visão um mundo onde doenças sejam erradicadas e haja fortalecimento de democracias ao redor do mundo.

De olho na inteligência artificial, o Future of Life, que produziu a carta contra AI, fez um investimento equivocado (Imagem: Expo/Press Photo).

As ações da Future of Life chegaram a ser reconhecidas pela Organização das Nações Unidas (ONU) em 2020: a ONU nomeou o instituto como representante da sociedade civil nas questões que envolvem IA. No começo deste ano, porém, o presidente desse órgão observador de tecnologia, Max Tegmark, teve que se desculpar sobre um investimento equivocado em uma plataforma de mídia de extrema-direita, a sueca Nya Dagbladet.

Qual o posicionamento de outras empresas sobre o desenvolvimento de AI? x5p5o

Empresas consolidadas como Google e Microsoft evitaram comentar sobre a carta do Future of Life Institute. As duas companhias estão se movimentando cada vez mais para oferecer soluções com IA, em face às produções da OpenAI, empresa criadora do ChatGPT. Aliás, a “mãe” de uma das IAs mais famosas do momento recebeu da Microsoft 10 bilhões de dólares em investimento. Simultaneamente, a empresa criada por Bill Gates está usando a tecnologia da OpenAI no seu mecanismo de busca, o Bing.

Google já está movendo as peças do jogo para propor soluções com IA tão poderosas quanto o ChatGPT, como o Bard (Imagem: JagranJosh/Reprodução).

Neste mês, coincidentemente, Bill Gates chegou a publicar uma carta em que aborda os possíveis efeitos que as soluções com IA podem trazer para o futuro. Já a Google está mantendo seus investimentos em inteligência artificial por meio do Bard, que ainda não está totalmente disponível para o público.

Preocupações de especialistas sobre AI e GPT-4 5cr6i

Mesmo que tenha sido melhorada, a ferramenta GPT-4 ainda entrega resultados com algumas alucinações e pode atender os usuários usando uma linguagem nociva. Mas há quem acredite que a pausa, na verdade, deveria ser para entender mais os benefícios — e não só os danos de tecnologias AI. Essa é a visão de Peter Stone, pesquisador da Universidade de Texas em Austin (EUA).

Carta de especialistas divide opiniões a cerca do futuro da inteligência artificial (Imagem: Intelligence Square/Reprodução).

“Eu penso que é válido ter um pouco de experiência em como [as IAs] podem ser utilizadas propriamente ou não, antes de ir atrás de desenvolver a próxima [tecnologia]. Isso não deveria ser uma corrida para produzir um novo modelo de inteligência artificial e lançá-la antes dos outros.”

Peter Stone

Em contraste a essa posição, um dos signatários, Emad Mostaque, fundador da empresa Stability AI (dedicada a ferramentas com inteligência artificial), disse à Wired que as soluções com IA são uma possível ameaça a própria existência da sociedade. Ele também deu importância a como os investimentos devem ser revistos, levando mais em conta o que pode estar no futuro dessa corrida tecnológica.

“É o momento de deixar de lado prioridades comerciais e dar uma pausa para o bem de todos, mais para pesquisar em vez de entrar numa corrida com um futuro incerto.”

Emad Mostaque

Carta contra AI: tradução na íntegra 3s314h

Presidente do Future of Life Institute, autor da carta contra AI, Max Tegmark (Imagem: Josh Reynolds/Getty Images).

Pausa em experimentos gigantes com AI: uma carta aberta 3o1j1g

Nós avisamos a todos os laboratórios de inteligência artificial (IA) para pausar imediatamente, pelo menos, por seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4 2vz57

Os sistemas AI com inteligência capaz de competir com humanos podem mostrar riscos profundos à sociedade e à humanidade, como evidenciado por várias pesquisas extensas da Universidade de Cornell, pelos livros The Alignment Problem (Brian Christian, 2020), Ser-se Humano na Era da Inteligência Artificial (Max Tegmark, 2017) e por outros estudos — sobre avanços na área, ética, impacto no mercado de trabalho, riscos existenciais — além de serem reconhecidos por laboratórios AI de renome. Como afirmado nos Princípios de IA de Asilomar, “IAs avançadas podem representar uma mudança profunda na história da vida na Terra, e devem ser planejadas e istradas com cuidado e com recursos comensurados”. Infelizmente, esse nível de planejamento e gestão não está acontecendo, mesmo que em meses recentes tenha-se visto laboratórios AI começarem uma corrida fora de controle para desenvolver e utilizar mentes digitais cada vez mais poderosas, que ninguém — nem mesmo seus criadores — podem entender, prever, ou controlar de forma confiável. 

Agora, os sistemas AI atuais estão se tornando capazes de competir com humanos em tarefas no geral, e nós precisamos nos perguntar: Devemos deixar máquinas inundar nossos canais de informação com proselitismo e inverdades? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Devemos desenvolver mentes não humanas para poder eventualmente nos superar em número e em nível de inteligência, nos tornar obsoletos e nos substituir? Devemos arriscar perder controle da nossa civilização? Tais decisões não devem ser delegadas para líderes em tecnologia sem respaldo. Sistemas de IA poderosos devem ser desenvolvidos apenas quando nós tivermos confiança que seus efeitos serão positivos e seus riscos serão istrados. Essa confiança deve ser bem justificada e aumentada em relação à magnitude das consequências potenciais dos sistemas. Uma posição da OpenAI recente sobre inteligência artificial generativa afirma que “em algum ponto, pode ser importante ter uma revisão independente, antes de começar a treinar sistemas no futuro, para esforços mais avançados, conforme o limite da taxa de crescimento da computação usada para criar novos modelos [de IA]”. Nós concordamos. O momento é agora. 

Portanto, nós avisamos a todos os laboratórios de inteligência artificial (IA) para pausar imediatamente, pelo menos, por seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável, e inclui todos os atores-chave. Se tal pausa não pode ser regulada rapidamente, os governantes devem intervir e instituir uma suspensão.

Laboratórios IA e especialistas independentes devem usar dessa pausa para desenvolverem e implementar, em conjunto, uma série de protocolos de segurança compartilhados para o design e desenvolvimento de IAs avançados, que sejam rigorosamente auditados e verificados por avaliadores terceiros. Esses protocolos devem garantir que sistemas regulados por essas normas sejam seguros para além de alguma dúvida razoável — um exemplo são os Princípios AI da OCDE, adotados amplamente e que exigem que sistemas de IA ‘funcionem de forma apropriada e não demonstrem riscos de segurança irresponsáveis’. Isso não significa um hiato no desenvolvimento de IAs em geral, mas simplesmente uma saída de uma corrida perigosa em direção a modelos ‘caixa-preta’ imprevisíveis, cada vez maiores e com capacidades emergentes.  

As pesquisas e desenvolvimentos de IAs devem ter o foco redirecionado em tornar os sistemas poderosos do estado-da-arte de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Em paralelo, os desenvolvedores de IA devem trabalhar com legisladores de maneira enfática, para acelerar a produção de sistemas de governança de IA rigorosos. Eles devem incluir, no mínimo: 

  • autoridades reguladoras novas e capazes, dedicadas à inteligência artificial;
  • verificação e acompanhamento de sistemas de IA altamente poderosos e de grande aporte em capacidade computacional; 
  • sistemas de proveniência e de identificação de marca, para ajudar a distinguir os modelos de mentes digitais reais dos sintéticos, bem como o acompanhamento dos vazamentos dessas tecnologias; 
  • um ecossistema pujante de certificação e de auditoria; 
  • compromisso com danos provenientes de sistemas de IA;
  • financiamento público forte o suficiente para pesquisas técnicas em segurança de IAs; e
  • instituições bem financiadas para lidar com impactos econômicos e políticos sérios que as IAs causarem (especialmente em relação à democracia). 

A humanidade pode aproveitar um futuro frutífero com a IA. Tendo criado com sucesso sistemas de IA poderosos, nós agora podemos celebrar um ‘verão de inteligência artificial’, no qual nós colhemos os frutos, produzimos a engenharia nesses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade ‘apertou o botão de pausa’ em outras tecnologias com efeitos potencialmente catastróficos para todo mundo — como a clonagem, a eugenia e a engenharia genética. Nós podemos fazer o mesmo aqui. Vamos curtir um longo verão de IA, sem ter pressa para o outono.

Veja também:

Como usar o Midjourney para criar imagens com Inteligência Artificial

Fonte: Wired | Tech Crunch | Future of Life | Vice World News

Revisado por Glauco Vital em 29/3/23.

Deixe um comentário Cancelar resposta 264j2x
Posts Relacionados 6q1j5c

Galaxy S25 Edge chega ao Brasil por R$ 8.799. Veja preços e vantagens u1f20

Smartphone ultrafino tem 5,8 mm de espesssura, mesmo processador dos Galaxy S25, câmera principal de 200 MP e até 512 GB. Saiba tudo sobre ele
Avatar de bruno martinez
Leia Mais

GOOGLE I/O 2025: Veja todas as novidades de inteligência artificial anunciadas 1s25t

Empresa mostrou Modo AI nas Buscas, edição de vídeo com som no Veo 3 AI, Gemini Live para todos os Androids e parcerias com a Samsung para criar óculos inteligentes. Confira o resumo
Avatar de victor pacheco
Leia Mais

Os 10 robôs humanoides mais impressionantes do momento w5wg

O mundo da robótica vive seu auge com a disputa das maiores empresas de tecnologia pelo lançamento do primeiro robô humanoide multi funcional comercialmente ível.
Avatar de mario mamede
Leia Mais