Q:
Por que é importante que os cientistas de dados busquem transparência?
UMA:A transparência é essencialmente importante em projetos de ciência de dados e programas de aprendizado de máquina, em parte devido à complexidade e sofisticação que os impulsiona - porque esses programas estão "aprendendo" (gerando resultados probabilísticos), em vez de seguir instruções de programação linear predeterminadas e, como resultado, pode ser difícil entender como a tecnologia está chegando a conclusões. O problema da “caixa preta” dos algoritmos de aprendizado de máquina que não são totalmente explicáveis aos tomadores de decisão humanos é grande neste campo.
Com isso em mente, ser capaz de dominar o aprendizado de máquina explicável ou a "IA explicável" provavelmente será o foco principal de como as empresas buscam a aquisição de talentos para um cientista de dados. A DARPA, a instituição que nos trouxe a Internet, já está financiando um estudo multimilionário em IA explicável, tentando promover as habilidades e os recursos necessários para criar tecnologias de aprendizado de máquina e inteligência artificial transparentes aos seres humanos.
Uma maneira de pensar sobre isso é que geralmente existe um "estágio de alfabetização" do desenvolvimento de talentos e um "estágio de hiperliteracia". Para um cientista de dados, o estágio tradicional de alfabetização seria o conhecimento de como montar programas de aprendizado de máquina e como construir algoritmos com linguagens como Python; como construir redes neurais e trabalhar com elas. O estágio de hiperliteracia seria a capacidade de dominar a IA explicável, fornecer transparência no uso de algoritmos de aprendizado de máquina e preservar a transparência, à medida que esses programas trabalham em direção aos seus objetivos e aos de seus manipuladores.
Outra maneira de explicar a importância da transparência na ciência de dados é que os conjuntos de dados que estão sendo usados continuam se tornando mais sofisticados e, portanto, mais potencialmente intrusivos na vida das pessoas. Outro fator importante do aprendizado de máquina explicável e da ciência de dados é o Regulamento Geral Europeu de Proteção de Dados, recentemente implementado para tentar coibir o uso antiético de dados pessoais. Usando o GDPR como um caso de teste, os especialistas podem ver como a necessidade de explicar projetos de ciência de dados se encaixa em questões de privacidade e segurança, bem como em ética nos negócios.