1

Етап 1

Глава 1. Введение в обучение с подкреплением

2

Етап 2

Глава 2. Знакомство с OpenAI и TensorFlow

3

Етап 3

Глава 3. Марковский процесс принятия решений и динамическое программирование

4

Етап 4

Глава 4. Методы Монте-Карло в играх

5

Етап 5

Глава 5. Обучение на основе временных различий

6

Етап 6

Глава 6. Задача о многоруком бандите

7

Етап 7

Глава 7. Основы глубокого обучения

8

Етап 8

Глава 8. Игры Atari с использованием Deep Q Network

9

Етап 9

Глава 9. Игра Doom в глубокой рекуррентной Q-сети

10

Етап 10

Глава 10. Асинхронная преимущественная сеть «актор-критик»

11

Етап 11

Глава 11. Градиенты политик и оптимизация.

12

Етап 12

Глава 12. «Автогонки» с использованием DQN

13

Етап 13

Глава 13. Последние достижения и следующие шаги

1

Етап 1

Глава 1. Введение в обучение с подкреплением

2

Етап 2

Глава 2. Знакомство с OpenAI и TensorFlow

3

Етап 3

Глава 3. Марковский процесс принятия решений и динамическое программирование

4

Етап 4

Глава 4. Методы Монте-Карло в играх

5

Етап 5

Глава 5. Обучение на основе временных различий

6

Етап 6

Глава 6. Задача о многоруком бандите

7

Етап 7

Глава 7. Основы глубокого обучения

8

Етап 8

Глава 8. Игры Atari с использованием Deep Q Network

9

Етап 9

Глава 9. Игра Doom в глубокой рекуррентной Q-сети

10

Етап 10

Глава 10. Асинхронная преимущественная сеть «актор-критик»

11

Етап 11

Глава 11. Градиенты политик и оптимизация.

12

Етап 12

Глава 12. «Автогонки» с использованием DQN

13

Етап 13

Глава 13. Последние достижения и следующие шаги

18 листопада 2020 31 січня 2021
Мета завершена % date%

Автор мети

Загальна

Прочитать книгу "Глубокое обучение с подкреплением на Python"

Эта книга по теме моего диплома. Ее освоение поможет мне стать хорошим специалистом данной узкой области.

Буду трекать время, затраченное на ее прочтение и разбор примеров.

 Критерій завершення

Все главы прочитаны, осмыслены. Выполнены все примеры программного кода.

  1. Глава 1. Введение в обучение с подкреплением

  2. Глава 2. Знакомство с OpenAI и TensorFlow

  3. Глава 3. Марковский процесс принятия решений и динамическое программирование

  4. Глава 4. Методы Монте-Карло в играх

  5. Глава 5. Обучение на основе временных различий

  6. Глава 6. Задача о многоруком бандите

  7. Глава 7. Основы глубокого обучения

  8. Глава 8. Игры Atari с использованием Deep Q Network

  9. Глава 9. Игра Doom в глубокой рекуррентной Q-сети

  10. Глава 10. Асинхронная преимущественная сеть «актор-критик»

  11. Глава 11. Градиенты политик и оптимизация.

  12. Глава 12. «Автогонки» с использованием DQN

  13. Глава 13. Последние достижения и следующие шаги

  • 785
  • 18 листопада 2020, 08:28

Реєстрація

Можливості
безмежні.
Настав час
відкрити свої.

Уже зарегистрированы?
Вхід на сайт

Заходьте.
Відкрито.

Ще не зареєстровані?
 
Підключіться до будь-якого з ваших акаунтів, ваші дані будуть взяті з акаунту.
Забули пароль?