Q:
Como a lei de Moore contribuiu para a atual revolução da IA?
UMA:É tentador pensar no progresso atual em inteligência artificial como relacionado principalmente à solução de problemas lógicos e orientados a dados, mas para empresas que tentam inovar e seguir em frente, pode ser útil voltar e pensar em como o hardware cada vez mais poderoso também contribuiu para o aprendizado de máquina de hoje e a funcionalidade de inteligência artificial.
Algumas das maneiras mais óbvias pelas quais a lei de Moore beneficiou o avanço da inteligência artificial são evidentes para quem estuda a TI nos últimos 30 anos. A primeira é que as estações de trabalho e data centers reais de computadores centralizados que trabalham em conjuntos de dados de inteligência artificial são menores do que seriam nos dias anteriores da computação - e isso faz a diferença. Se mainframes simples ainda estivessem ocupando o espaço de um conjunto de lavadoras / secadoras, isso teria um efeito amortecedor no desenvolvimento ágil de todos os tipos de novas tecnologias.
No entanto, muito mais importante, as conquistas de eficiência das empresas baseadas na lei de Moore permitiram a prevalência de dispositivos móveis de coleta de dados extremamente pequenos. Os smartphones são o melhor exemplo, mas a lei de Moore também nos forneceu câmeras digitais, tocadores de MP3 e muitos outros pequenos pedaços de hardware que coletam seus próprios dados em um ritmo espantoso. Agora, a internet das coisas está sobrecarregando esse processo com utensílios de cozinha inteligentes e todo tipo de hardware muito moderno que se baseia na idéia de que os dispositivos portadores de chips são pequenos o suficiente para serem colocados em quase tudo.
No entanto, essas não são as únicas maneiras pelas quais a lei de Moore beneficiou o desenvolvimento de novos aprendizados de máquina e o progresso da inteligência artificial. No MIT Technology Review, o escritor Tom Simonite afirma que a lei de Moore também tem sido útil como uma espécie de "dispositivo de coordenação" que serviu para projetar o que virá ao mercado nos próximos anos, para dar aos desenvolvedores e outras pessoas uma aparência de estrada. mapa e indicadores para futuras inovações.
Outra perspectiva interessante vem de Niel Viljoen, que fala sobre como a lei de Moore ainda pode ser crítica para os novos sistemas baseados em nuvem e o surgimento de uma nova tecnologia de inteligência artificial.
O argumento de Viljoen parece ser que adicionar núcleos de uso geral a sistemas de dimensionamento não é suficiente para realmente conectar o hardware a uma rede de uma maneira abrangente, o que leva a gargalos. Uma ideia correspondente é que os modelos de convergência acelerarão todos os tipos de funções de sistemas com uso intensivo de dados. Em outras palavras, como os sistemas de computação continuavam escalando seu uso de dados de acordo com o que eles poderiam caber em um pedaço de hardware, os construtores nunca chegaram a incluir algumas das funções corolárias do desenvolvimento, como processamento de imagem, criptografia, renderização de vídeo etc.
Como resultado, os data centers modernos se tornaram muito poderosos, mas ainda dependem de elementos externos para realizar o processamento necessário - Viljoen postula o surgimento futuro de "sistemas em um chip", onde o hardware hiperconvergente tem tudo o que é necessário para fazer toda a funcionalidade de rede, para otimizar os fluxos de dados e tornar os sistemas ágeis e poderosos em termos de dados.
Em geral, a lei de Moore ajudou no avanço da TI e continua a ajudar, de maneiras fundamentais. Faz parte do modelo "ficção científica é o presente" que mostra até que ponto a humanidade chegou na construção de sistemas de dados ao longo de um ou dois séculos.