Quem está acostumado a realizar análises com dados de medições está ciente do rigor estatístico e metrológico necessário para a obtenção de resultados em nível suficiente de confiabilidade, e dos cuidados fundamentais para a formulação de conclusões e previsões de comportamentos futuros.
Nos últimos anos, novas formas de abordar o tema têm ganhado destaque: o uso de inteligência artificial (IA) e de algoritmos de machine learning – oriundos de áreas correlatas às ciências da computação – é crescente em diversos domínios, seja em processos industriais, na criação de novos produtos, no desenvolvimento tecnológico, em pesquisas sociais aplicadas ou mesmo acadêmicas de base.
Mas, como essas duas abordagens se sobrepõem? O que elas têm em comum, e no que se diferem? Nesse texto vamos tentar esclarecer as principais dúvidas relacionadas ao tema.
Os conceitos que tradicionalmente usamos ainda são válidos para a inteligência artificial?
Pela amplitude da adoção dessa tecnologia, é certo falar que a difusão deste conhecimento tecnológico tem diminuído a dificuldade da sua implantação. Porém, a facilidade do uso também causa a impressão que todo o desenvolvimento matemático e estatístico, que embasa análises tradicionais, será considerado ultrapassado em breve. Essa percepção surge pela existência, no mercado, de soluções simplórias com pouca – ou nenhuma – formulação matemática comprovada. Tais itens, muitas vezes, não apresentam qualquer explicação sobre como é feita a aquisição dos dados, levando o usuário a tirar conclusões para tomadas de decisão sem o habitual rigor.
Quando imersos nessa realidade, é inevitável que diversas questões surjam nas mentes de analistas de dados – profissionais acostumados a realizar suas tarefas com grande cuidado.
”Onde está a análise de incertezas nesse novo cenário?”;
“Como fazer previsões sem analisar a estabilidade dos dados e seu comportamento futuro?”;
“Como a separação entre informação e ruído está sendo realizada?”.
As respostas que encontramos em literaturas qualificadas de inteligência artificial e confiabilidade de dados nos apontam a importância da realização de uma detalhada análise de contexto e da determinação da incerteza associada ao resultado da análise ou da previsão.
Uma história que não iniciou há pouco tempo
Antes de passarmos ao entendimento destes conceitos, cabe ressaltar que a aplicação dos mesmos pertence ao cotidiano de analistas de dados de medição há muito tempo. As práticas de modelagem baseada em dados foram referenciadas nas primeiras versões do Guia para Expressão da Incerteza de Medição (ISO-GUM) e do Vocabulário Internacional de Metrologia (VIM), que datam dos anos 80/90.
Nesta época já se destacavam a necessidade da consideração da incerteza na expressão de resultados e a determinação de seu intervalo de confiança, a fim de se garantir confiabilidade e robustez às análises realizadas. Tais documentos também contemplavam a variabilidade de parâmetros de entrada, e sua influência na incerteza da variável de saída. O termo função de medição já era empregado para se referir a modelos matemáticos para estimação de variáveis, considerando as incertezas associadas aos parâmetros de entrada.
Agora, vamos aos conceitos.
Análise de contexto
Cabe, a quem for utilizar dados, entender o comportamento do fenômeno observado frente ao esperado e, por meio dessa assimilação, identificar outliers, ou seja, os pontos inválidos. É a análise de contexto que permite separar a informação do ruído. Sem contexto, a capacidade de se extrair informação a partir dos dados é desprezível. Somente desta forma será possível conseguir, com ajuda de ferramentas estatísticas e matemáticas, identificar o ruído presente no sinal e eliminá-lo da análise.
Incerteza na expressão dos resultados
Por sua vez, a determinação da incerteza de uma análise ou previsão é o que provê confiabilidade ao resultado. A amplitude do intervalo de valores possíveis para a resposta, com probabilidade conhecida a partir da consideração dos efeitos que desviam a resposta de seu valor esperado – como a variabilidade dos dados de entrada e a incerteza de medição – é o que define a assertividade da análise. Desta forma, previsões são válidas apenas quando as incertezas associadas forem consideradas.
Estabilidade dos dados
A estabilidade dos dados de treinamento e de validação torna-se fundamental para a confiabilidade de análises e previsões. Modelos baseados em dados têm validade apenas se as condições estabelecidas durante o treinamento/simulação das mesmas forem mantidas. Em outras palavras, a validade do modelo depende da estabilidade das condições de teste.
Modelos baseados em dados são representativos do comportamento de fenômenos somente nas condições em que os dados de treinamento foram obtidos. Historicamente, testes de bancada foram empregados com o intuito de, justamente, verificar o comportamento de fenômenos em condições controladas.
Respondendo a pergunta
Assim, respondendo a essa pergunta “Os conceitos que tradicionalmente usamos ainda são válidos para a inteligência artificial?” no que tange à análise de dados de medição, os principais conceitos historicamente empregados permanecem válidos para análises baseadas em inteligência artificial. A análise de contexto, a avaliação de incertezas e de estabilidade de dados, tradicionalmente realizados, permanecem válidos para análises baseadas em algoritmos de IA.
Mas será que os algoritmos de IA serão capazes de superar métodos tradicionais de análise de dados de medição?
Historicamente, a análise de dados sempre foi baseada na aplicação de conceitos matemáticos e estatísticos. Entretanto, na abordagem por IA, algoritmos de machine learning são frequentemente utilizados sem um aprofundamento em como funcionam.
Pela literatura, percebe-se que todos os algoritmos de inteligência artificial estão fundamentados em ferramentas matemáticas e estatísticas. Redes neurais artificiais utilizam funções não-lineares; PCA se baseiam em matrizes de covariância; árvores de decisão – Random Forest – são fundamentadas no conceito estatístico de entropia; e diversos algoritmos de machine learning empregam métodos de otimização baseados em funções custo, ou mesmo lagrangiano, ferramenta de pelo menos dois séculos de existência.
Então, não há – nos fundamentos dos algoritmos de IA – nada divergente dos conhecimentos tradicionalmente empregados para análise de dados.
Então, afinal, se tudo permanece igual, o que realmente existe de novo em IA?
Para melhor responder a essa pergunta, precisamos considerar que a análise de dados de medição por inteligência artificial consiste em uma poderosa abordagem capaz de usufruir do enorme poder computacional disponível atualmente.
Por sua vez, no alicerce de cada algoritmo estão ferramentas matemáticas e estatísticas desenvolvidas e validadas ao longo de décadas ou séculos. Na estrutura de cada análise realizada, estão décadas de experiência em análises de dados, conhecimento que se mantém válido, por mais “inovador” que o conceito de inteligência artificial possa ser.
Portanto, é inegável a capacidade e o potencial de algoritmos de inteligência artificial, e muito a análise de dados de medição se beneficiará com sua utilização, mas desde que o rigor e as boas práticas historicamente empregados sejam mantidos. O poder de algoritmos de IA deve ser empregado sempre em conjunto com detalhada análise de contexto e avaliação de incertezas.
É nessa linha tênue entre o estrutural e o inovador que a CERTI atua. Nessa empreitada, conta com equipes multidisciplinares formadas por especialistas em diferentes setores do conhecimento – como metrologia, computação, instrumentação e ciência de dados – que trabalham em conjunto para desenvolver criteriosas análises de dados. E assim, entendendo a complexidade na qual a medição será desenvolvida, oferecemos, a cada cliente, a melhor solução para sua realidade.
Interessou? Entre em contato e vamos discutir a realidade da sua empresa.