Evolução dos Sistemas de Controle com a IA

Blog Sobre Engenharia e IA

Evolução dos Sistemas de Controle com a IA

Lá vem eles de novo, os temidos sistemas de controle, como comentei em um outro post, me fascinam, então vamos falar mais um pouco sobre eles, desta vez como os sistemas de controle estão evoluindo através da IA. Então vamos lá!

Segundo os engenheiros da Microsoft  e da Universidade Cornell, Kence Anderson, Winston Jenks e Prabu Parthasarathy, os sistemas de controle estão em contínua evolução ao longo dos anos, e agora as tecnologias baseadas em IA chegaram para avançar ainda mais nessa evolução para as próximas gerações.

O controlador PID (proporcional-integrativo-derivativo) pode ser interpretado como uma camada de capacidades, o termo proporcional aponta em direção ao sinal, o termo integral atinge o ponto de ajuste e o termo derivativo pode minimizar o overshoot.

Embora o ecossistema de controles possa apresentar uma rede complexa de tecnologias inter-relacionadas, também pode ser simplificado se considerarmos como ramos em constante evolução de uma árvore genealógica. Cada tecnologia de sistemas de controle oferece características próprias não disponíveis nas anteriores. Podemos citar como exemplo o feed forward que melhora o controle PID ao prever a saída do controlador e em seguida, usa previsões para separar erros de perturbação pela ocorrência de ruídos. O controle preditivo de modelo (MPC) adiciona recursos adicionais ao sobrepor previsões de resultados de ações de controles futuras e controlar múltiplas entradas e saídas correlacionadas. A mais recente evolução das estratégias de controle é a adição de tecnologias de IA para desenvolver controles industriais. Um dos últimos avanços nessa área foi a aplicação de controles baseados em aprendizagem por reforço.

Controladores baseados em IA ou DRL (Aprendizagem por Reforço Profundo), oferecem características únicas e atraentes como:

Aprendizado – os controles baseados em DRL aprendem praticando continuamente o que conhecemos de ensino de máquina. Por conta disso estes controladores podem descobrir nuances e exceções que não são facilmente capturadas em sistemas especialistas e podem ser difíceis de controlar ao usar controladores de ganho fixo. O mecanismo DRL pode ser exposto a uma ampla variedade de estados de processos pelo simulador. Muitos desses estados nunca seriam encontrados no mundo real, pois o motor de IA (cérebro) pode tentar operar a planta muito perto ou além dos limites operacionais de uma instalação física. Nesse caso, essas excursões são experiências para o cérebro aprender quais comportamentos devem ser evitados. Quando isso é feito com bastante frequência, o cérebro aprende o que não deve ser feito, além disso o mecanismo DRL pode aprender com muitas simulações ao mesmo tempo. Em vez de alimentar os dados cerebrais de uma planta, ele pode aprender com centenas de simulações, cada uma procedendo mais rápido do que o visto em tempo real, para fornecer a experiência de treinamento que conduz ao aprendizado ideal.

Recompensa atrasada – os controladores baseados em DRL podem aprender a reconhecer comportamentos abaixo do ideal no curto prazo, o que permite a otimização de ganhos no longo prazo. De acordo com Aristóteles em 300 a.C, os humanos conhecem esse comportamento como “recompensa atrasada”. Quando a IA se comporta dessa maneira, ela pode ultrapassar locais muito complicados e encontrar soluções mais otimizadas.

Dados de entrada não tradicionais – os controladores baseados em DRL gerenciam a entrada e são capazes de avaliar as informações do sensor que os sistemas automatizados não conseguem. Por exemplo, um controlador baseado em IA pode considerar informações visuais sobre a qualidade do produto ou status de um equipamento, também leva em consideração alertas e avisos categóricos da máquina ao executar ações de controle. Utilizam também sinais sonoros e entradas de sensores de vibração para determinar como tomar decisões de processo, semelhante aos sons aos quis os operadores humanos estão sujeitos. A capacidade de processar informações visuais, como o tamanho de um flare, diferencia e revela as capacidades dos controladores baseados em DRL.

Habilitando Sistemas de Controle Baseados em DRL

Para instalações de processos estão envolvidas quatro etapas:

1 – Preparação de um modelo de simulação;

2 – Design treinamento do cérebro;

3 – Avaliação do cérebro treinado;

4 – Implantação.

Modelo de Simulação Complementar

A habilitação dos controladores DRL requer um ambiente de simulação ou “gêmeo digital” para praticar e aprender como as decisões são tomadas. A vantagem deste método é que o cérebro pode aprender tanto o que é considerado “bom”, como o que é “ruim” para o sistema, para atingir os objetivos propostos. Dado que o ambiente real tem variabilidades, dentro de um modelo de simulação de processo, existe a quantidade de simulação necessária para treinar o cérebro no espaço de estado de operação, modelos de ordem reduzida que mantêm os princípios fundamentais da física oferecem o melhor método de treinar o cérebro. Esses modelos oferecem uma maneira de desenvolver simulações de processos complexos e são mais rápidos durante o tempo de execução, o que permite uma maneira mais eficiente de desenvolver o cérebro. Os simuladores de processos baseados em tags são conhecidos por seu design simples, facilidade de uso e capacidade de adaptação a uma ampla gama de necessidades de simulação, que atendem aos requisitos de um modelo de simulação necessário para treinar cérebros baseados em DRL.

Usar a simulação para testar um sistema em um teste de aceitação de fábrica (FAT) antes de ir para o campo tem sido “uma mão na roda” do software de simulação de processos há décadas, pois os mesmos simuladores podem ser usados no treinamento de motores de IA para controlar efetivamente os processos industriais e para isso, precisam ser capazes de rodar de forma distribuída em múltiplas CPUs e potencialmente na nuvem. Múltiplas instâncias das simulações são necessárias para treinar ou avaliar potenciais novos algoritmos de IA em execução paralela. Uma vez que o objetivo foi alcançado, os sistemas de treinamento de operadores que foram desenvolvidos usando simuladores baseados em tags podem ser usados para treinar motores de IA DRL.

Design Treinamento do Cérebro

Projetar o cérebro com base no processo a ser controlado é crucial no desenvolvimento de uma solução de controle ideal baseada em DRL e bem-sucedida. O cérebro pode consistir não apenas em conceitos de IA, mas também pode incluir heurística e lógica programada. Quando as informações de um especialista no assunto são coletadas adequadamente, a capacidade de implementar um cérebro usando essas informações é fundamental para o sucesso de um projeto.

Definindo Espaços de Estado de Ação

Inkling é uma linguagem desenvolvida para o uso no treinamento de agentes DRL para expressar o paradigma de treinamento em uma sintaxe compacta, expressiva e de fácil compreensão. Simuladores baseados em tags podem ser programados apara gerar automaticamente um código Inkling que define as estruturas de estado de ação do cérebro.

A escolha das lições e cenários apropriados que correspondem a um objetivo são resultados de uma colaboração adequada entre o designer do cérebro e as informações de um PME.

Código Para Criar Um Cérebro de IA

O treinamento eficaz do cérebro requer a exploração de um espaço de estados de operação muito grande. As tecnologias de nuvem permitem que os simuladores sejam “conteinerizados” e executados em um ambiente massivamente paralelo. No entanto, ao desejar resultados bem-sucedidos, testar ideias para treinar o cérebro precisa primeiro ser executado no simulador localmente para “resolver” os bugs. Quando o usuário estiver satisfeito, o simulador pode ser “conteinerizado” e executado na nuvem. As sessões típicas de treinamento cerebral podem variar entre 300.000 e 1.000.000 iterações de treinamento.

Avaliação do Cérebro Treinado

Depois do treinamento, o cérebro precisa ser testado para avaliar sua viabilidade. Durante esta fase, o cérebro é confrontado com o modelo para avaliar o seu comportamento. Mas desta vez, os cenários devem ser variados na simulação, realizando assim, testes nos quais ele pode não ter encontrado durante as rodagens originais.

Implementação do Cérebro

Depois que o cérebro passar no teste de avaliação, ele poderá ser implementado. Embora existam muitos modos de implantação, a vantagem exclusiva de usar simuladores baseados em tags usados para testar sistemas de controle é que eles podem ser usados como middleware para integrar o cérebro ao sistema de controle. Com uma grande variedade de drivers disponíveis para vários sistemas de controle, a integração em um site específico do cliente é muito mais fácil do que usar uma solução personalizada. Além disso, do ponto de vista da manutenção de software, é sempre apreciado minimizar o número de implantações personalizadas.

Aplicações Desta Tecnologia

Os cérebros baseados em DRL foram projetados para mais de 100 casos de uso e implantados em uma ampla variedade de setores e mercados verticais.

Otimização Energética de Edifícios HVAC

A otimização do uso de energia em edifícios e ao mesmo tempo garantir o status do nível de CO 2 abaixo dos limites legais exige que os engenheiros estabeleçam pontos de ajuste da planta de resfriamento que minimizem os custos e, ao mesmo tempo, mantenham a temperatura interna dentro de faixas estreitas. Um nível de complexidade é adicionado a isso devido às mudanças na temperatura ambiente ao longo do dia, bem como à variação sazonal nas faixas diárias. Os controles baseados em DRL levam em consideração dados meteorológicos em tempo real, como temperatura ambiente e umidade e usam aprendizado de máquina em conjunto com modelos de relações anteriores de desempenho e condições ambientais para fornecer uma solução mais otimizada.

Controle de Qualidade na Fabricação de Alimentos

Maximizar a qualidade do produto e minimizar produtos fora das especificações é um objetivo comum para muitos fabricantes. Neste caso, é necessária a experiência de operadores humanos para operar o equipamento em condições adequadas. A solução baseada em IA e a análise de vídeo on-line integrada, juntamente com as entradas de processo tradicionais, permitem a criação de um cérebro que controla múltiplas saídas simultaneamente, respeitando os limites do equipamento de processamento. O resultado é uma resposta mais rápida aos desvios do processo e menos produtos fora das especificações.

Controle de Processamento Químico

A produção de polímeros requer um controle rigoroso dos pontos de ajuste nos reatores. Os desafios típicos envolvidos na produção de polímeros incluem o controle transitório, especialmente durante a mudança de um tipo de polímero para outro, quando a chance de produção fora das especificações é alta. O desafio aqui também é controlar de forma otimizada e entregar resultados consistentes. O número de variáveis de controle é grande e muitas vezes a experiência humana é usada no processo de controle e, como esta é uma habilidade aprendida, a variabilidade nos resultados resulta da variabilidade na experiência do operador e na subjetividade envolvida. A implantação de um cérebro treinado que explorou todos os espaços de estado associados à operação transitória e incorpora a sabedoria dos operadores mais experientes e de melhor desempenho permite aconselhamento operacional mais rápido e consistente ao operador e minimiza a quantidade de produtos fora das especificações.

Os casos de uso acima mostram algumas aplicações, mas o uso da tecnologia de IA pode se estender a qualquer problema complexo que possa ser modelado por meio de simulações, como por exemplo:

1 – Otimização do gás lift no setor upstream de petróleo e gás;

2 – Controlar perturbações intermitentes de produção em equipamentos topsides no setor upstream de petróleo e gás;

3 – Otimização e controle de desempenho de refinarias;

4 – Otimizando e controlando a sequência de start-up em fábricas de produtos químicos;

5 – Logística e otimização da cadeia de suprimentos no setor de manufatura discreta; 6 – Racionalização de alarmes.

IA Para Controle Avançado no Futuro

Os sistemas de controle de aprendizado de máquina baseados em IA mostram-se promissores como a próxima evolução do controle avançado, especialmente para sistemas complexos com grandes espaços de estado, parcialmente no que diz respeito ao estado medido e às correlações não lineares entre variáveis. No entanto, algumas peças-chave de tecnologia são necessárias para concretizar esta promessa.

Além do hype de um “gêmeo digital”, os agentes de aprendizagem devem ter acesso a um modelo de simulação diretamente preciso para praticar os meios de implantar um agente de aprendizagem para tomar decisões na fábrica. Os processos de ponta de construção e aprendizagem de agentes de IA para controles avançados de processos são: treinar o agente em simulação, ensinar o agente em vários objetivos e cenários de otimização, avaliar o agente e, finalmente, implementar o agente na borda como um controle de produção.

Tags: , , , ,

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *