Tecnologia

IA é risco de extinção para humanidade, dizem experts – 30/05/2023 – Tec

1548234083 file be0b03d8 Vision Art NEWS


Um grupo de 350 executivos-chefes e cientistas de empresas diz que a ameaça que a IA (inteligência artificial), em desenvolvimento acelerado, representa à humanidade é tão grave quanto conflitos nucleares e doenças. Dentre eles estão Sam Altman, CEO da OpenAI e “pai” do ChatGPT, e Demis Hassabis, CEO da Google DeepMind.

“Mitigar o risco de extinção pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social ampla, como pandemias e guerra nuclear”, afirma a declaração divulgada pelo Center for AI Safety (Centro para a Segurança da IA), organização sem fins lucrativos com sede em San Francisco.

Geoffrey Hinton e Yoshua Bengio, que receberam um Prêmio Turing por seu trabalho sobre redes neurais e frequentemente são descritos como “padrinhos” da IA, também assinaram o documento.

Hinton deixou seu cargo no Google no início do mês para falar livremente sobre os males potenciais da tecnologia.

O comunicado foi divulgado na sequência de chamados por regulação lançados de todas as partes do setor depois de uma série de lançamentos de big techs ter ampliado a consciência dos perigos potenciais da IA.

Dentre os males, a difusão de desinformação, a perpetuação de vieses sociais e a substituição de trabalhadores humanos.

Legisladores da União Europeia estão trabalhando sobre a Lei de Inteligência Artificial europeia. Os Estados Unidos também estão explorando a regulamentação da tecnologia.

Lançado em novembro, o ChatGPT da OpenAI, apoiada pela Microsoft, é visto como líder na adoção ampla da inteligência artificial. Este mês, Sam Altman depôs pela primeira vez no Congresso americano, pedindo a adoção de regulação na forma de licenças.

Em março, Elon Musk e mais de mil outros pesquisadores e executivos de tecnologia pediram uma pausa de seis meses no desenvolvimento de sistemas avançados de IA, para sustar o que descreveram como uma “corrida armamentista”.

A carta deles foi criticada por sua abordagem, incluindo por alguns pesquisadores citados em seu raciocínio. Outros discordaram da pausa recomendada no desenvolvimento da tecnologia.

Com um comunicado de uma linha, o Center for AI Safety disse ao New York Times que espera evitar divergências.

“Não queríamos defender um menu muito grande de 30 potenciais intervenções”, disse o diretor executivo da organização, Dan Hendrycks. “Quando isso acontece, dilui a mensagem.”

Kevin Scott, o diretor de tecnologia da Microsoft, e Eric Horvitz, diretor científico da empresa, também firmaram o comunicado na terça-feira, assim como Mustafa Suleyman, ex-co-fundador da DeepMind que hoje comanda a startup Inflection AI.

Tradução de Clara Allain

Fonte: Acesse Aqui o Link da Matéria Original

1548234083 file be0b03d8 Vision Art NEWS

Este site usa cookies para que você tenha a melhor experiência do usuário. Se continuar a navegar, dará o seu consentimento para a aceitação dos referidos cookies e da nossa política de cookies , clique no link para obter mais informações. CONFIRA AQUI

ACEPTAR
Aviso de cookies
Translate »