Por que a OpenAI, do ChatGPT, decidiu criar uma equipe 'anti catástrofe'

Rastrear, prever e proteger. Essas são as principais responsabilidades de quem compõe a equipe “anti catástrofe” da OpenAI. A empresa por trás do ChatGPT anunciou que agora conta com um time interno para investigar modelos de IA e garantir proteção contra “riscos catastróficos”, como descrito pela própria companhia, que hoje busca um valuation de US$ 86 bilhões.

Chamada “Preparedness” (“prevenção”, em português), a equipe vai analisar a capacidade de IAs enganarem humanos, gerarem conteúdo de ódio ou até criar um código malicioso. Em uma parte da postagem feita pela OpenAI, a empresa lista ameaças “químicas, biológicas, radiológicas e nucleares” como possíveis áreas de preocupação.

O anúncio vem num momento em que a OpenAI está na mira de governos como o dos EUA, que buscam a regulação do uso de IA. A divulgação da nova equipe foi feita, inclusive, durante uma convenção sobre segurança da IA feita pelo governo do Reino Unido. Mas vale ressaltar que Sam Altman, CEO da OpenAI, sempre se mostrou aberto a discutir o potencial da inteligência artificial — e sempre com um olhar bastante pessimista.

A equipe de prevenção também será encarregada de formular uma política de desenvolvimento, que detalhará a abordagem da OpenAI para avaliar modelos de IA e as ações de mitigação de riscos. “Os modelos de IA, que excederão as capacidades atualmente presentes nos modelos mais avançados existentes, têm o potencial de beneficiar toda a humanidade, mas também representam riscos cada vez mais graves”, escreveu a empresa em postagem. “Precisamos garantir que temos o conhecimento e a infraestrutura necessários para a segurança de sistemas de IA altamente capazes.”

A OpenAI anunciou um prêmio de US$ 2.500 e um emprego na equipe “anti catástrofe” para as dez melhores sugestões de potenciais riscos em seus produtos. “Imagine que lhe demos acesso irrestrito a todos os modelos da OpenAI e você é um ator malicioso. Considere o uso indevido, embora ainda provável, e potencialmente catastrófico do modelo”, propõe a empresa.

O CEO consciente

Sam Altman é mais do que aberto sobre os riscos da inteligência artificial generativa. O executivo já disse em entrevistas que se preocupa com o que concorrentes podem criar a partir da tecnologia e até assinou uma carta aberta alertando sobre o risco da IA “extinguir” a humanidade.

“Mitigar esse risco deveria ser uma prioridade global como pandemias e guerras nucleares”, diz a carta, divulgada pelo Center for AI Safety no fim de maio. Como Altman é um dos pioneiros do que ele mesmo diz ter medo, a ironia chega a ser palpável. Mas vale ressaltar que a OpenAI, cofundada por Elon Musk em 2015, foi criada com o intuito de promover a tecnologia de forma aberta e em benefício da sociedade.

“Acho estranho quando as pessoas enxergam como uma humilhação quando digo que estou com um pouco de medo”, disse Altman em um podcast americano no início do ano. “Seria uma loucura não ter medo”. Apesar das falas, o CEO nunca disse que se arrepende de ter lançado o ChatGPT.

Continue lendo

Recomendados

Desenvolvido porInvesting.com
Mercado, Todos

Notícias relacionadas

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Preencha esse campo
Preencha esse campo
Digite um endereço de e-mail válido.
Você precisa concordar com os termos para prosseguir

Menu