A2C Agent playing PandaPickAndPlace-v3

This is a trained model of a A2C agent playing PandaPickAndPlace-v3 using the stable-baselines3 library.

Usage (with Stable-baselines3)

from stable_baselines3 import ...
from huggingface_sb3 import load_from_hub
...

Deep Reinforcement Learning: Advantage Actor-Critic (A2C)

Este model card descreve o Advantage Actor-Critic (A2C), um algoritmo de Deep Reinforcement Learning (Aprendizado por Reforço Profundo) que aprimora o método Actor-Critic. Ele combina as vantagens dos métodos baseados em política e em valor para alcançar uma performance mais estável e eficaz.

Para um exemplo prático de implementação do A2C, confira este notebook no Google Colab: Link para o notebook no Google Colab


1. Entendendo o Conceito Actor-Critic

O método Actor-Critic foi desenvolvido para superar as limitações de alta variância dos métodos puramente baseados em política, como o REINFORCE. A sua arquitetura é baseada em duas aproximações de função, frequentemente implementadas como redes neurais distintas que trabalham em conjunto:

  • Ator (Rede de Política): Responsável por determinar a ação a ser tomada em um determinado estado. Ele "age" no ambiente.
  • Crítico (Rede de Valor): Avalia a ação do Ator, fornecendo um feedback crucial sobre a qualidade dessa ação. Ele "critica" o desempenho.

A dinâmica é simples e poderosa: o Ator executa uma ação, o Crítico avalia essa ação e a recompensa obtida, e ambos utilizam esse feedback para aprimorar suas respectivas redes continuamente.


2. O Processo de Treinamento Actor-Critic

O treinamento de um agente Actor-Critic segue um ciclo de refinamento contínuo:

  1. Observação do Estado: O agente observa o estado atual (S_t) do ambiente.
  2. Ação do Ator: A rede do Ator recebe o estado (S_t) e gera uma ação (A_t).
  3. Avaliação do Crítico: A rede do Crítico avalia o par (estado, ação), estimando o valor esperado.
  4. Interação com o Ambiente: A ação (A_t) é executada, e o ambiente retorna uma recompensa (R_{t+1}) e o próximo estado (S_{t+1}).
  5. Atualização do Ator: O Ator ajusta sua política com base na avaliação do Crítico, aprendendo a priorizar ações mais vantajosas.
  6. Atualização do Crítico: O Crítico também se atualiza, refinando sua capacidade de fornecer avaliações mais precisas.

3. O Avanço do Advantage Actor-Critic (A2C)

O A2C aprimora a estrutura básica ao introduzir a função de Vantagem, que estabiliza o processo de aprendizado. Em vez de usar a recompensa bruta, a função de Vantagem (A(s,a)) mede o "benefício relativo" de uma ação em um estado, comparando-a com o valor médio desse estado.

  • Função de Vantagem: A métrica A(s,a) é a diferença entre a recompensa obtida pela ação e a recompensa média esperada para o estado. Se a vantagem é positiva, a ação superou as expectativas. Se é negativa, a ação teve um desempenho abaixo da média.

Na prática, o A2C utiliza o Erro Temporal Difference (TD) como um estimador eficiente da função de Vantagem, o que simplifica a implementação sem comprometer a eficácia do aprendizado. O gradiente da política é diretamente orientado pelo sinal da vantagem, incentivando ações de alto desempenho e desencorajando as de baixo desempenho, resultando em um treinamento mais robusto e focado.

Downloads last month
35
Video Preview
loading

Evaluation results