Lar Áudio Por que o darpa está pesquisando ai explicável?

Por que o darpa está pesquisando ai explicável?

Anonim

Q:

Por que a DARPA está pesquisando "IA explicável"?

UMA:

Em geral, a inteligência artificial explicável está se tornando uma parte muito anunciada do trabalho de ponta nas ciências de dados. Está ajudando a orientar o controle humano de um tipo de tecnologia inerentemente volátil e dinâmico - a IA explicável ajuda a responder muitas de nossas perguntas coletivas sobre como a inteligência artificial funcionará.

Para entender a IA explicável, é útil entender como é a "IA normal". Tradicionalmente, quando a IA começa a tomar forma, o projeto típico consiste em um novo recurso sofisticado de software, oculto em algoritmos e conjuntos de treinamento e código linear, que é uma espécie de "caixa de bloco" para os usuários. Eles sabem que funciona - eles simplesmente não sabem exatamente como.

Isso pode levar a "problemas de confiança", onde os usuários podem questionar a base sobre a qual uma tecnologia toma decisões. É isso que a IA explicável deve abordar: os projetos de IA explicáveis ​​vêm com infraestrutura adicional para mostrar aos usuários finais a intenção e a estrutura da IA ​​- por que ela faz o que faz.

Em uma época em que os principais inovadores, como Bill Gates e Elon Musk, estão expressando preocupação com o funcionamento da inteligência artificial, a IA explicável parece extremamente atraente. Especialistas afirmam que uma boa IA explicável pode ajudar os usuários finais a entender por que as tecnologias fazem o que fazem, aumentar a confiança e também aumentar a facilidade de uso e a utilização dessas tecnologias.

Especificamente, porém, a DARPA explica por si própria especificamente por que está interessada nos novos projetos. Uma página da DARPA mostra que o Departamento de Defesa antecipa uma “torrente” de aplicativos de inteligência artificial e uma certa quantidade de caos em seu desenvolvimento.

"Os avanços contínuos prometem produzir sistemas autônomos que irão perceber, aprender, decidir e agir por conta própria", escreve David Gunning. “No entanto, a eficácia desses sistemas é limitada pela incapacidade atual da máquina de explicar suas decisões e ações aos usuários humanos. … A IA explicável - especialmente o aprendizado de máquinas explicável - será essencial para que futuros combatentes entendam, confiem adequadamente e gerenciem efetivamente uma geração emergente de parceiros de máquinas artificialmente inteligentes. ”

O ensaio on-line de Gunning sugere que os sistemas de IA explicáveis ​​ajudarão a "fornecer a justificativa" para as tecnologias, mostrar seus pontos fortes e fracos e tornar os casos de uso mais transparentes. Um gráfico na página mostra como um pipeline direto de funcionalidade de inteligência artificial a partir de dados de treinamento seria aumentado por algo chamado modelo explicável e uma interface explicável que ajudará o usuário a responder perguntas. Gunning sugere ainda que um programa de IA explicável terá duas áreas principais de foco - uma seria pesquisar dados de multimídia para descobrir o que é útil para os usuários, e uma segunda focagem seria simular processos de decisão para suporte à decisão.

A DARPA espera fornecer um "kit de ferramentas" que possa ajudar a desenvolver futuros sistemas de IA explicáveis.

Por que o darpa está pesquisando ai explicável?