Inteligência Artificial: quem confia em bots e por que?
Análise de dados

07 de julho de 2019

Última atualização: 31 de outubro de 2022

Inteligência Artificial: quem confia em bots e por que?

Como a inteligência artificial pode ser encarada?

Um médico diagnostica febre e dor de garganta como faringite estreptocócica, e nós aceitamos o diagnóstico e seguimos suas instruções. O mesmo cenário quando um consultor financeiro ou de seguros faz uma recomendação de política ou investimento - ouvimos o que eles têm a dizer e normalmente executamos seu plano. Mas o que acontece quando a mesma sugestão vem de um bot de inteligência artificial? Quais fatores determinam se um humano está preparado para aceitar conselhos de máquinas? Existem certos tipos de pessoas que estão mais predispostas do que outras a confiar na Inteligência Artificial?

Essas questões estão se tornando mais importantes à medida que as organizações começam a implantar um exército de bots para melhorar as interações com os clientes. Para ter sucesso, as empresas precisam descobrir quais trocas podem se beneficiar da IA ​​e queais ainda precisam de interação entre humanos, disse a professora do MIT Sloan Renée Gosline, pesquisadora da Iniciativa MIT sobre a Economia Digital.

Recentemente, a Gosline apresentou novas descobertas que esclareceram quem tem maior probabilidade de adotar o processo de tomada de decisão aprimorado com inteligência artificial. Além disso, a pesquisadora apresentou as diretrizes para as empresas que tentam integrar efetivamente os consultores robóticos e os recursos da IA ​​às suas experiências de usuário.

"O desenvolvimento de bots e algoritmos para ajudar o comportamento está superando nossa compreensão de quem e quando eles ajudam mais", disse Gosline, cuja pesquisa é co-autoria da aluna de PhD, Heather Yang. “Precisamos pensar sobre a crescente terceirização de decisões - quem faz, quando e quais são as implicações quando fazemos isso.”

Detectando apreciação algorítmica da Inteligência Artificial

A ciência comportamental fornece uma lente para avaliar como as pessoas navegam no processo de tomada de decisão. O pensamento do sistema 1 compreende decisões rápidas e quase automáticas - pense em frear o carro para evitar um cachorro na estrada.

O pensamento do Sistema 2 é um processo muito mais deliberado: ao escolher um vinho para pedir no jantar, os insumos podem incluir sua preferência por uma uva em particular, que comida está sendo servida ou sugestões de amigos.

Para entender exatamente quem tem maior probabilidade de confiar na tomada de decisão aprimorada pela IA, Gosline recorreu ao Teste de Reflexão Cognitiva , uma medida de se alguém tem uma tendência para o processamento do Sistema 1 (considerado “preguiçoso”) ou Sistema 2, mais “esforçado”. ," em processamento.

Juntamente com o CRT, os participantes do estudo foram apresentados a uma série de cenários destinados a testar sua aversão ou apreciação por algoritmos. Uma instância pediu que escolhessem entre obter orientação de um consultor financeiro humano ou um bot sobre como administrar melhor uma carteira de investimentos. Outras instâncias cobriam opções de saúde e contratação.

Estudos iniciais realizados como parte da pesquisa constataram que os participantes tinham um viés anterior: a aversão algorítmica era a norma para 62% da população, indicando que eles sentiam que os humanos geralmente eram mais capazes, empáticos e responsivos.

Os entrevistados com apreciação algorítmica disseram acreditar que os algoritmos poderiam ser programados para dar respostas justas e lógicas.

O estudo encontrou uma relação positiva linear entre o pensamento do Sistema 2 e a apreciação algorítmica. No entanto, Gosline disse que ela ainda não está clara sobre o mecanismo, porque fatores tradicionais como demografia, confiança no domínio ou experiência anterior com IA não eram indicativos da predisposição.

A covariável singular identificada foi a de que os entrevistados com ansiedade social auto-avaliada - ou seja, aqueles que não se sentem confiantes em sua capacidade de se dar bem com os seres humanos - são mais propensos a ter apreciação algorítmica, disse ela.

Um sistema de amigos para cientistas

Com base nos resultados, Gosline está defendendo um sistema de amigos que constrói pontes entre cientistas de dados e especialistas em ciência comportamental à medida que as empresas desenvolvem seus bots e experiências aprimoradas por IA.

“Enquanto corremos para contratar cientistas de dados, devemos ter equipes também compostas de cientistas comportamentais que entendam a complexidade dos comportamentos que estamos medindo por trás desses pontinhos”, explicou ela.

A equipe de Gosline também está investigando se as pessoas do Sistema 2 são mais vulneráveis ​​ao viés algorítmico, o que é importante porque esse grupo tem tipicamente um desempenho superior e está associado a um maior sucesso na carreira.

"Essas pessoas são poderosas", disse ela. “Se eles são dependentes de algoritmos e esses algoritmos são tendenciosos, quais são as implicações para a desigualdade social?”

Virgilio Marques Dos Santos

Virgilio Marques Dos Santos

Sócio-fundador da FM2S, formado em Engenharia Mecânica pela Unicamp (2006), com mestrado e doutorado na Engenharia de Processos de Fabricação na FEM/UNICAMP (2007 a 2013) e Master Black Belt pela UNICAMP (2011). Foi professor dos cursos de Black Belt, Green Belt e especialização em Gestão e Estratégia de Empresas da UNICAMP, assim como de outras universidades e cursos de pós-graduação. Atuou como gerente de processos e melhoria em empresa de bebidas e foi um dos idealizadores do Desafio Unicamp de Inovação Tecnológica.