Por que os humanos no podem confiar na inteligncia artificial
Informtica
Mark Bailey – The Conversation – 18/09/2023

Voc confia na Inteligncia Artificial? Neste artigo de opinio, especialista defende que voc no deveria.
[Imagem: Criador de imagens do Bing/DALLE]
Este um artigo assinado, que no necessariamente reflete a opinio do Site Inovao Tecnolgica.
Fantasma na mquina
Existem mentes aliengenas entre ns. No os homenzinhos verdes da fico cientfica, mas as mentes aliengenas que alimentam o reconhecimento facial do seu celular, determinam seu crdito no banco e escrevem poesia e cdigos de computador. Essas mentes aliengenas so sistemas de inteligncia artificial (IA), o fantasma na mquina que voc encontra diariamente.
Mas os sistemas de IA tm uma limitao significativa: A maior parte do seu funcionamento interno impenetrvel, o que os torna fundamentalmente inexplicveis e imprevisveis. Alm disso, construir sistemas de IA que se comportem da forma que as pessoas esperam um desafio significativo.
Se voc fundamentalmente no entende algo to imprevisvel quanto a IA, como pode confiar nela?
Por que a IA imprevisvel
A confiana baseada na previsibilidade. Ela depende da sua capacidade de antecipar o comportamento dos outros. Se voc confia em algum e essa pessoa no faz o que voc espera, sua percepo da confiabilidade dela diminui.
Muitos sistemas de IA so construdos usando redes neurais de aprendizagem profunda, que de certa forma emulam o crebro humano. Essas redes contm “neurnios” interconectados com variveis, ou “parmetros”, que afetam a fora das conexes entre os neurnios. medida que uma rede ingnua recebe dados de treinamento, ela “aprende” como classificar os dados ajustando esses parmetros. Desta forma, o sistema de IA aprende a classificar dados que nunca viu antes. Ele no memoriza o que cada ponto de dados, mas, em vez disso, prev o que um ponto de dados pode ser.
Muitos dos sistemas de IA mais poderosos contm trilhes de parmetros. Por causa disso, as razes pelas quais os sistemas de IA tomam as decises que tomam so muitas vezes opacas. Este o problema da explicabilidade da IA – a caixa preta impenetrvel da tomada de decises da IA.
Considere uma variao do “Problema do Bonde“: Imagine que voc passageiro de um veculo autnomo, controlado por uma IA; uma criana pequena corre para a estrada e a IA deve agora decidir: Atropelar a criana ou desviar e bater, podendo ferir os passageiros. Esta escolha seria difcil para um ser humano fazer, mas um ser humano tem a vantagem de poder explicar a sua deciso. A sua racionalizao – moldada por normas ticas, pelas percepes dos outros e pelo comportamento esperado – d suporte confiana.
Em contraste, uma IA no consegue racionalizar a sua tomada de decises. Voc no pode olhar sob o cap do veculo autnomo com seus trilhes de parmetros para explicar por que ele tomou essa deciso. A IA falha no requisito preditivo de confiana.

Nas redes neurais, a fora das conexes entre os neurnios muda medida que os dados passam pela camada de entrada e trafegam atravs de camadas ocultas at a camada de sada, permitindo que a rede aprenda padres.
[Imagem: Wiso/Wikimedia Commons]
Comportamento da IA e expectativas humanas
A confiana depende no apenas da previsibilidade, mas tambm de motivaes normativas ou ticas. Normalmente, voc espera que as pessoas ajam no apenas como voc supe que agiro, mas tambm como deveriam. Os valores humanos so influenciados pela experincia comum e o raciocnio moral um processo dinmico, moldado por padres ticos e pelas percepes dos outros.
Ao contrrio dos humanos, a IA no ajusta o seu comportamento com base na forma como percebida pelos outros ou aderindo a normas ticas. A representao interna do mundo pela IA em grande parte esttica, definida pelos seus dados de treinamento. O seu processo de tomada de decises baseia-se num modelo imutvel do mundo, imperturbvel pelas interaes sociais dinmicas e cheias de nuances que influenciam constantemente o comportamento humano. Os pesquisadores esto trabalhando na programao da IA para incluir a tica, mas isso est se mostrando problemtico.
O cenrio do carro autnomo ilustra essa questo. Como voc pode garantir que a IA do carro tome decises alinhadas s expectativas humanas? Por exemplo, o carro poderia decidir que bater na criana o curso de ao ideal, algo que a maioria dos motoristas humanos evitaria instintivamente. Esta questo conhecida como o problema do alinhamento da IA, e outra fonte de incerteza que ergue barreiras confiana.

Sistemas crticos e confiabilidade da IA
Uma forma de reduzir a incerteza e fomentar a confiana garantir que as pessoas participem nas decises tomadas pelos sistemas de IA. Esta a abordagem adotada pelo Departamento de Defesa dos EUA, que exige que, para todas as tomadas de deciso sobre IA, um ser humano esteja no circuito ou acima do circuito. Estar no circuito significa que o sistema de IA faz uma recomendao, mas necessrio que um ser humano inicie uma ao. Estar acima do circuito significa que, embora um sistema de IA possa iniciar uma ao por conta prpria, um monitor humano pode interromp-la ou alter-la.
Embora manter os seres humanos envolvidos seja um grande primeiro passo, no estou convencido de que isto ser sustentvel a longo prazo. medida que as empresas e os governos continuam a adotar a IA, o futuro provavelmente incluir sistemas de IA aninhados, onde a rpida tomada de decises limita as oportunidades de interveno das pessoas. importante resolver as questes de explicabilidade e alinhamento antes que seja alcanado o ponto crtico onde a interveno humana se torna impossvel. Nesse ponto, no haver outra opo seno confiar na IA.
Evitar esse limiar especialmente importante porque a IA est cada vez mais integrada em sistemas crticos, que incluem coisas como redes eltricas, a internet e sistemas militares. Em sistemas crticos, a confiana fundamental e comportamentos indesejveis podem ter consequncias mortais. medida que a integrao da IA se torna mais complexa, torna-se ainda mais importante resolver problemas que limitam a confiabilidade.

As pessoas podem confiar na IA?
A IA uma aliengena – um sistema inteligente sobre o qual as pessoas tm pouca percepo. Os humanos so amplamente previsveis para outros humanos porque partilhamos a mesma experincia humana, mas isto no se estende inteligncia artificial, embora os humanos a tenham criado.
Se a confiabilidade tem elementos inerentemente previsveis e normativos, a IA carece fundamentalmente das qualidades que a tornariam digna de confiana. Espera-se que mais investigao nesta rea possa esclarecer esta questo, garantindo que os sistemas de IA do futuro sejam dignos da nossa confiana.
Este artigo foi republicado da revista The Conversation sob uma licena Creative Commons. Leia o artigo original.
Outras notcias sobre:
Fonte: Acesse Aqui o Link da Matéria Original
