A forma como você oferece explicações sobre o funcionamento interno do seu sistema de Inteligência Artificial (IA) pode influenciar profundamente a experiência do usuário com seu sistema e sua utilidade na tomada de decisões. 

 São três as principais considerações exclusivas da IA: 

  1.     Ajude os usuários a calibrar sua confiança – O objetivo do sistema deve ser que o usuário confie nele em algumas situações, mas verifique novamente quando necessário. Os fatores que influenciam a confiança calibrada são:
  •  Articular fontes de dados: informar ao usuário quais dados estão sendo usados ​​na previsão da IA ​​pode ajudar seu produto a evitar surpresas contextuais e suspeitas de privacidade e ajudar o usuário a saber quando aplicar seu próprio julgamento. 
  •  Vincular explicações às ações do usuário: Mostrar relações claras de causa-efeito entre ações do usuário e saídas do sistema com explicações pode ajudar os usuários a desenvolver o nível certo de confiança ao longo do tempo.
  • Considerar riscos situacionais: fornecer explicações detalhadas, solicitar ao usuário que verifique a saída em situações de baixa confiança / alto risco e revelar a lógica por trás das previsões de alta confiança podem aumentar a confiança do usuário.
  1.     Otimize para entender – Em alguns casos, pode não haver maneira de oferecer uma explicação explícita e abrangente. Os cálculos por trás de uma saída podem ser inescrutáveis (os famosos modelos “blackbox”), mesmo para os desenvolvedores desses sistemas. Em outros casos, pode ser possível apresentar o raciocínio por trás de uma previsão, mas pode não ser fácil explicar aos usuários em termos que eles entenderão. Nesses casos, use explicações parciais.
  1.     Gerencie a influência nas decisões do usuário – Quando um usuário precisa tomar uma decisão com base na saída do modelo, quando e como você exibe a confiança do modelo pode desempenhar um papel em quais ações ele executa. Existem várias maneiras de comunicar a confiança do modelo, cada uma com suas próprias vantagens e considerações.

Novidades ao trabalhar com IA

Como os sistemas orientados a IA são baseados em probabilidade e incerteza, o nível certo de explicação é essencial para ajudar os usuários a entender como o sistema funciona. Uma vez que os usuários tenham modelos mentais claros das capacidades e limites do sistema, eles podem entender como e quando confiar nele para ajudar a alcançar seus objetivos. Em suma, explicabilidade e confiança estão inerentemente vinculadas.

banner-ebook-inteligencia-artificial-oportunidades-bilionarias

Ajude os usuários a calibrar sua confiança

Os usuários não devem confiar implicitamente em seu sistema de IA em todas as circunstâncias, mas calibrar sua confiança corretamente. Existem muitos exemplos de pesquisa sobre “aversão a algoritmos”, em que as pessoas suspeitam de sistemas de software. Os pesquisadores também descobriram casos de pessoas que confiam demais em um sistema de IA para fazer algo que não pode. Idealmente, os usuários devem possuir o nível apropriado de confiança, considerando o que o sistema pode ou não fazer.

Articular fontes de dados

Todas as previsões de IA são baseadas em dados, portanto, as fontes de dados precisam fazer parte de suas explicações. No entanto, lembre-se de que pode haver considerações legais, justas e éticas para coletar e comunicar sobre as fontes de dados usadas na IA. 

 Às vezes, os usuários podem se surpreender com suas próprias informações quando as veem em um novo contexto. Esses momentos geralmente ocorrem quando alguém vê seus dados usados ​​de uma maneira que parece não ser privada ou quando veem dados aos quais não sabiam que o sistema tinha acesso, os quais podem corroer a confiança. Para evitar isso, explique aos usuários de onde vêm os dados e como estão sendo usados ​​pelo sistema de IA (e evite coletar dados que não serão utilizados).

 Igualmente importante, informar aos usuários quais dados o modelo está usando pode ajudá-los a saber quando possuem uma informação crítica que o sistema não possui. Esse conhecimento pode ajudar o usuário a não confiar demais no sistema em determinadas situações.

Vincular explicações às ações do usuário

As pessoas aprendem mais rápido quando conseguem ver uma resposta às suas ações imediatamente, porque é mais fácil identificar causa e efeito. Isso significa que o momento perfeito para mostrar explicações é uma resposta à ação do usuário. Se o usuário executar uma ação e o sistema de IA não responder, ou responder de maneira inesperada, uma explicação poderá ajudar bastante na construção ou recuperação da confiança do usuário. Por outro lado, quando o sistema está funcionando bem, responder às ações dos usuários é um ótimo momento para informar ao usuário o que eles podem fazer para ajudar o sistema a continuar sendo confiável.

Quando é mais difícil vincular explicações diretamente às ações do usuário, você pode usar o design multimodal para mostrar explicações. Por exemplo, se alguém estiver usando um aplicativo assistente com interfaces visuais e de voz, você pode deixar de fora a explicação na saída de voz, mas incluí-la na interface visual para que o usuário veja quando tem tempo.

Conta para participações situacionais

 Você pode usar explicações para incentivar os usuários a confiar em uma saída dependendo da situação e das possíveis consequências. É importante considerar os riscos de um usuário confiar em um falso positivo, falso negativo ou uma previsão que esteja em um determinado percentual.

Otimize para entender

As explicações são cruciais para criar confiança calibrada. No entanto, oferecer uma explicação de um sistema de IA pode ser um desafio por si só. Como a IA é inerentemente probabilística, extremamente complicada e toma decisões com base em múltiplos sinais, ela pode limitar os tipos de explicações possíveis.

 Frequentemente, a lógica por trás de uma previsão de IA específica é desconhecida ou muito complexa para ser resumida em uma frase simples que os usuários com conhecimento técnico limitado podem entender facilmente. Em muitos casos, a melhor abordagem é não tentar explicar tudo – apenas os aspectos que afetam a confiança do usuário e a tomada de decisões. Mesmo isso pode ser difícil, mas há muitas técnicas a serem consideradas.

 Explique o que é importante

Explicações parciais esclarecem um elemento-chave de como o sistema funciona ou expõe algumas das fontes de dados usadas para determinadas previsões. Elas intencionalmente deixam de fora partes da função do sistema que são desconhecidas, altamente complexas ou simplesmente não são úteis. Observe que as divulgações progressivas também podem ser usadas juntamente com explicações parciais para fornecer aos usuários curiosos mais detalhes.

 Descreva o sistema ou explique a saída

 Explicações gerais do sistema falam sobre como o sistema inteiro se comporta, independentemente da entrada específica. Eles podem explicar os tipos de dados usados, para o que o sistema está otimizando e como o sistema foi treinado. 

Explicações de saída específicas devem explicar a lógica por trás de uma saída específica para um usuário específico, por exemplo, por que ele previu que uma imagem específica de uma planta fosse carvalho envenenado. As explicações de saída são úteis porque conectam explicações diretamente às ações e podem ajudar a resolver confusões no contexto das tarefas do usuário.

Fontes de dados

Modelos simples, como regressões, geralmente podem mostrar quais fontes de dados tiveram a maior influência na saída do sistema. A identificação de fontes de dados influentes para modelos complexos ainda é uma área crescente de pesquisa ativa, mas às vezes pode ser feita. Nos casos em que é possível, os recursos influentes podem ser descritos para o usuário em uma simples frase ou ilustração. Outra maneira de explicar as fontes de dados são os contrafactuais, que informam ao usuário por que a IA não tomou uma determinada decisão ou previsão.

Explicações baseadas em exemplos

 Explicações baseadas em exemplos são úteis nos casos em que é complicado explicar as razões por trás das previsões da IA. Essa abordagem fornece aos usuários exemplos do conjunto de treinamento do modelo que são relevantes para a decisão que está sendo tomada. Os exemplos podem ajudar os usuários a entender resultados surpreendentes da IA ​​ou intuir por que a IA pode ter se comportado dessa maneira. Essas explicações contam com a inteligência humana para analisar os exemplos e decidir quanto confiar na classificação.

Explicação por interação

Outra maneira de explicar a IA e ajudar os usuários a criar modelos mentais é permitir que os usuários experimentem a IA on-the-fly, como uma maneira de perguntar “e se?”. As pessoas costumam testar por que um algoritmo se comporta da maneira que faz e encontrar os limites do sistema, por exemplo, fazendo perguntas impossíveis a um assistente de voz da IA. Seja intencional em permitir que os usuários se envolvam com a IA em seus próprios termos, para aumentar a usabilidade e criar confiança.

 Gerenciar influência nas decisões do usuário

 Uma das oportunidades mais emocionantes para a IA é poder ajudar as pessoas a tomar melhores decisões com mais frequência. As melhores parcerias entre IA e humanos permitem melhores decisões do que qualquer das partes poderia tomar por conta própria. Por exemplo, um viajante pode aumentar seu conhecimento local com previsões de tráfego para seguir o melhor caminho para casa. Um médico poderia usar um modelo de diagnóstico médico para complementar o conhecimento histórico do paciente. Para que esse tipo de colaboração seja eficaz, as pessoas precisam saber se e quando confiar nas previsões de um sistema.

Determine se você deve mostrar confiança

 Não é fácil tornar a confiança do modelo intuitiva. Ainda há pesquisas ativas sobre as melhores maneiras de demonstrar confiança e explicar o que isso significa para que as pessoas possam realmente usá-lo na tomada de decisões. Mesmo se você tiver certeza de que seu usuário possui conhecimento suficiente para interpretar adequadamente suas exibições de confiança, considere como isso melhorará a usabilidade e a compreensão do sistema – se houver. Reserve muito tempo para testar se mostrar confiança no modelo é benéfico para seus usuários e seu produto ou recurso. 

 

Decida qual a melhor forma de mostrar confiança no modelo

 Se sua pesquisa confirmar que a exibição da confiança do modelo melhora a tomada de decisão, o próximo passo é escolher uma visualização apropriada. Para encontrar a melhor maneira de exibir a confiança do modelo, pense sobre qual ação do usuário essas informações devem informar. 

 

Visualizações de dados

 Essas são indicações de certeza baseadas em gráficos – por exemplo, uma previsão financeira pode incluir barras de erro ou áreas sombreadas indicando a faixa de resultados alternativos com base no nível de confiança do sistema. No entanto, lembre-se de que algumas visualizações de dados comuns são melhor compreendidas por usuários especializados em domínios específicos.

Os recursos de Inteligência Artificial potencializam mudanças e levam as instituições a repensarem suas iniciativas, descobrir custos ocultos e reinventar processos. Tudo para garantir índices máximos de produtividade e competitividade.

Uma das aplicações práticas tem sido a de utilização de Machine Learning e Inteligência Artificial para evidenciar os custos escondidos com operações. 

Segundo a LEVEE, para aumentar a produtividade das empresas por meio da contratação de mão de obra operacional, a ciência de dados não pode ser uma estratégia isolada, mas deve estar integrada ao objetivo de negócios da organização.

 

 

 

 

 

 

 

Referências: 

https://pair.withgoogle.com/ 

https://pair.withgoogle.com/chapter/explainability-trust/

Leave a Reply