Q:
Por que a DARPA está pesquisando "IA explicável"?
UMA:Em geral, a inteligência artificial explicável está se tornando uma parte muito anunciada do trabalho de ponta nas ciências de dados. Está ajudando a orientar o controle humano de um tipo de tecnologia inerentemente volátil e dinâmico - a IA explicável ajuda a responder muitas de nossas perguntas coletivas sobre como a inteligência artificial funcionará.
Para entender a IA explicável, é útil entender como é a "IA normal". Tradicionalmente, quando a IA começa a tomar forma, o projeto típico consiste em um novo recurso sofisticado de software, oculto em algoritmos e conjuntos de treinamento e código linear, que é uma espécie de "caixa de bloco" para os usuários. Eles sabem que funciona - eles simplesmente não sabem exatamente como.
Isso pode levar a "problemas de confiança", onde os usuários podem questionar a base sobre a qual uma tecnologia toma decisões. É isso que a IA explicável deve abordar: os projetos de IA explicáveis vêm com infraestrutura adicional para mostrar aos usuários finais a intenção e a estrutura da IA - por que ela faz o que faz.
Em uma época em que os principais inovadores, como Bill Gates e Elon Musk, estão expressando preocupação com o funcionamento da inteligência artificial, a IA explicável parece extremamente atraente. Especialistas afirmam que uma boa IA explicável pode ajudar os usuários finais a entender por que as tecnologias fazem o que fazem, aumentar a confiança e também aumentar a facilidade de uso e a utilização dessas tecnologias.
Especificamente, porém, a DARPA explica por si própria especificamente por que está interessada nos novos projetos. Uma página da DARPA mostra que o Departamento de Defesa antecipa uma “torrente” de aplicativos de inteligência artificial e uma certa quantidade de caos em seu desenvolvimento.
"Os avanços contínuos prometem produzir sistemas autônomos que irão perceber, aprender, decidir e agir por conta própria", escreve David Gunning. “No entanto, a eficácia desses sistemas é limitada pela incapacidade atual da máquina de explicar suas decisões e ações aos usuários humanos. … A IA explicável - especialmente o aprendizado de máquinas explicável - será essencial para que futuros combatentes entendam, confiem adequadamente e gerenciem efetivamente uma geração emergente de parceiros de máquinas artificialmente inteligentes. ”
O ensaio on-line de Gunning sugere que os sistemas de IA explicáveis ajudarão a "fornecer a justificativa" para as tecnologias, mostrar seus pontos fortes e fracos e tornar os casos de uso mais transparentes. Um gráfico na página mostra como um pipeline direto de funcionalidade de inteligência artificial a partir de dados de treinamento seria aumentado por algo chamado modelo explicável e uma interface explicável que ajudará o usuário a responder perguntas. Gunning sugere ainda que um programa de IA explicável terá duas áreas principais de foco - uma seria pesquisar dados de multimídia para descobrir o que é útil para os usuários, e uma segunda focagem seria simular processos de decisão para suporte à decisão.
A DARPA espera fornecer um "kit de ferramentas" que possa ajudar a desenvolver futuros sistemas de IA explicáveis.