Lar Áudio Como as empresas estão tentando adicionar um velocímetro ao trabalho de inteligência artificial?

Como as empresas estão tentando adicionar um velocímetro ao trabalho de inteligência artificial?

Anonim

Q:

Como as empresas estão tentando adicionar um "velocímetro" ao trabalho de inteligência artificial?

UMA:

Algumas das empresas que trabalham nos mais recentes avanços em inteligência artificial estão se concentrando em quantificar o progresso que alcançaram e em comparar alguns aspectos de como a inteligência artificial evoluiu ao longo do tempo. Existem inúmeras razões pelas quais as empresas estão buscando esses tipos de análise. Em geral, eles estão tentando descobrir até que ponto a inteligência artificial chegou, como ela se aplica às nossas vidas e como isso afetará os mercados.

Algumas empresas estão fazendo um brainstorming e monitorando o progresso da inteligência artificial para descobrir como as novas tecnologias podem afetar as liberdades civis ou como podem criar novas realidades econômicas. Dependendo da abordagem da empresa, esses tipos de análise podem assumir a forma de tentar descobrir como os dados do usuário podem fluir pelos sistemas, entender como as interfaces funcionarão ou descobrir quais recursos as entidades de inteligência artificial têm e como podem usá-los.

Quando se trata de métodos, as empresas que estão tentando avaliar a inteligência artificial podem se concentrar em quebrar informações abstratas - por exemplo, um artigo da Wired cita o projeto AI Index, onde pesquisadores como Ray Perrault, que trabalha no laboratório sem fins lucrativos SRI International, estão trabalhando em um instantâneo detalhado do que está acontecendo no campo da inteligência artificial.

"Isso é algo que precisa ser feito, em parte porque há muita loucura por aí sobre onde a IA está indo", diz Perrault no artigo, comentando a motivação para assumir esse tipo de projeto.

Ao explicar como o benchmarking de inteligência artificial funciona, alguns especialistas estão explicando que engenheiros ou outras partes podem estar tentando realizar "testes duros" para projetos de inteligência artificial, por exemplo, tentando "enganar" ou "derrotar" sistemas de inteligência artificial. Esse tipo de descrição realmente está no cerne de como as empresas podem realmente monitorar e avaliar a inteligência artificial. Uma maneira de pensar sobre isso é aplicar os mesmos tipos de idéias que os programadores usaram nos últimos tempos para depurar sistemas de código linear.

A depuração de sistemas de código linear consistia em encontrar os locais onde o sistema funcionaria bem - onde um programa travaria, onde congelaria, onde seria lento, etc. Era sobre descobrir onde erros lógicos interromperiam ou confundiriam um projeto, onde uma função não funcionaria corretamente ou onde pode haver algum evento indesejado do usuário.

Quando você pensa sobre isso, o teste moderno de inteligência artificial pode ser um empreendimento semelhante em um plano muito diferente - porque as tecnologias de inteligência artificial são mais cognitivas que lineares, esse teste assume uma forma muito diferente, mas os humanos ainda estão procurando “os bugs ”- maneiras pelas quais esses programas podem ter conseqüências não intencionais, maneiras pelas quais eles podem agir e prejudicar instituições humanas, etc. Com isso em mente, embora existam muitos métodos diferentes de criar um velocímetro ou referência para o progresso da inteligência artificial, os tipos de os testes detalhados descritos acima geralmente proporcionam aos seres humanos uma visão única de quão longe a inteligência artificial chegou e o que deve ser feito para mantê-la fornecendo mais positivos sem desenvolver mais negativos.

Como as empresas estão tentando adicionar um velocímetro ao trabalho de inteligência artificial?