1

Этап 1

Глава 1. Введение в обучение с подкреплением

2

Этап 2

Глава 2. Знакомство с OpenAI и TensorFlow

3

Этап 3

Глава 3. Марковский процесс принятия решений и динамическое программирование

4

Этап 4

Глава 4. Методы Монте-Карло в играх

5

Этап 5

Глава 5. Обучение на основе временных различий

6

Этап 6

Глава 6. Задача о многоруком бандите

7

Этап 7

Глава 7. Основы глубокого обучения

8

Этап 8

Глава 8. Игры Atari с использованием Deep Q Network

9

Этап 9

Глава 9. Игра Doom в глубокой рекуррентной Q-сети

10

Этап 10

Глава 10. Асинхронная преимущественная сеть «актор-критик»

11

Этап 11

Глава 11. Градиенты политик и оптимизация.

12

Этап 12

Глава 12. «Автогонки» с использованием DQN

13

Этап 13

Глава 13. Последние достижения и следующие шаги

1

Этап 1

Глава 1. Введение в обучение с подкреплением

2

Этап 2

Глава 2. Знакомство с OpenAI и TensorFlow

3

Этап 3

Глава 3. Марковский процесс принятия решений и динамическое программирование

4

Этап 4

Глава 4. Методы Монте-Карло в играх

5

Этап 5

Глава 5. Обучение на основе временных различий

6

Этап 6

Глава 6. Задача о многоруком бандите

7

Этап 7

Глава 7. Основы глубокого обучения

8

Этап 8

Глава 8. Игры Atari с использованием Deep Q Network

9

Этап 9

Глава 9. Игра Doom в глубокой рекуррентной Q-сети

10

Этап 10

Глава 10. Асинхронная преимущественная сеть «актор-критик»

11

Этап 11

Глава 11. Градиенты политик и оптимизация.

12

Этап 12

Глава 12. «Автогонки» с использованием DQN

13

Этап 13

Глава 13. Последние достижения и следующие шаги

18 ноября 2020 31 января 2021
Цель завершена 5 августа 2021
Общая

Прочитать книгу "Глубокое обучение с подкреплением на Python"

Эта книга по теме моего диплома. Ее освоение поможет мне стать хорошим специалистом данной узкой области.

Буду трекать время, затраченное на ее прочтение и разбор примеров.

 Критерий завершения

Все главы прочитаны, осмыслены. Выполнены все примеры программного кода.

  1. Глава 1. Введение в обучение с подкреплением

  2. Глава 2. Знакомство с OpenAI и TensorFlow

  3. Глава 3. Марковский процесс принятия решений и динамическое программирование

  4. Глава 4. Методы Монте-Карло в играх

  5. Глава 5. Обучение на основе временных различий

  6. Глава 6. Задача о многоруком бандите

  7. Глава 7. Основы глубокого обучения

  8. Глава 8. Игры Atari с использованием Deep Q Network

  9. Глава 9. Игра Doom в глубокой рекуррентной Q-сети

  10. Глава 10. Асинхронная преимущественная сеть «актор-критик»

  11. Глава 11. Градиенты политик и оптимизация.

  12. Глава 12. «Автогонки» с использованием DQN

  13. Глава 13. Последние достижения и следующие шаги

  • 782
  • 18 ноября 2020, 08:28
Регистрация

Регистрация

Уже зарегистрированы?
Быстрая регистрация через соцсети
Вход на сайт

Входите.
Открыто.

Еще не зарегистрированы?
 
Войти через соцсети
Забыли пароль?