Верховный алгоритм
·
Книга представляет из себя обзорную экскурсию по подходам в [[машинном обучении]]. Для этого автор показывается, что на момент написания книги существует пять подходов: символисты, коннективисты, эволюционеры, байесисты и аналогисты. В каждом из них есть свой опорный алгоритм: [[обратная дедукция]], [[обратное распространение ошибки]], [[генетическое программирование]], [[байесовский вывод]] и метод опорных векторов. Верховный же алгоритм должен объеденить их всех. Для этого надо рассмотреть хорошие и плохие стороны каждого из подходов и получить универсальный алгоритм. Финальным наброском в книге служит логическая цепь Маркова.
Цитаты
- 202106142029: Величайшая задача науки
- 202106142030: Увеличении количества важных действий без усилий
- 202106142031: Концептуальная модель
- 202106142032: Пять племён машинного обучения
- 202106142034: Алгоритм - и теория, и устройство
- 202106172039: Универсальный обучающий алгоритм
- 202106202041: Мыслители - лисы и ежи
- 202106202042: ИЛИ-НЕ - базовый вентиль
- 202106202044: No free lunch
- 202106202045: Индюк индуктивист
- 202106202048: Обучение без знаний невозможно
- 202106202049: Начинать с ограничений и ослаблять
- 202106212041: Точность алгоритма зависит от количества примеров
- 202106212042: Смещение и дисперсия в машинном обучении
- 202106212043: Случайная выборка для определение смещения и дисперсии
- 202106212044: Индукция - противоположность дедукции
- 202106212045: Хорошее дерево решений даёт низкую энтропию
- 202106212046: Три уровня системы обработки информации
- 202106212047: Набор правил компактнее дерева решений
- 202106212048: Дедукцию легко запутить шумом
- 202106212049: Перцептрон
- 202106212053: Переобучение возникает, когда у вас слишком много гипотез и недостаточно данных, чтобы их различить.
- 202106212054: Обучение - гонка между гипотезами и данными.
- 202106222050: Перцептрон ищет гиперплоскости для разделения примеров
- 202106222051: Состояние минимальной энергии в нейросети - это воспоминания
- 202106222052: Нейрон - преобразователь напряжения в частоту
- 202106222053: Иголка в глубиннах гиперпространства
- 202106222054: Многоярусные разреженные автокодировщики как AGI
- 202106232054: Ошибка локального максимума
- 202106232055: Дилемма изучения-применения
- 202106252055: теормеа Байеса - обновление доверия к гипотезе при обновлении данных
- 202106252056: Вероятность зависит от внутренних убеждений
- 202106252057: Упрощай до тех пор, пока это возможно, а потом упрости еще немного
- 202106252058: Google PageRank
- 202106252059: байесовская сеть используется для оценки игроков в Xbox
- 202106252100: Связь при априорной независимости
- 202106262058: Сначала подгонять под важные данные
- 202106262059: Оптимизация при наличии ограничений
- 202106262100: Метод опорных векторов использует большую размерность
- 202106262101: Все открытия - продукт аналогии
- 202106282101: Слова не имеют смысла без реальных вещей
- 202106282102: Кластеры можно объединять в кластеры
- 202106282103: Метод главных компонент в биологии
- 202106282104: Isomap - алгоритм понижения размерности
- 202106282105: Обучение с подкреплений должен иметь шум
- 202106282106: Построение привычек - ключ к успеху
- 202106302149: Дефисы для запоминания
- 202106302150: Замедление при увеличение фрагментов
- 202106302151: Повсеместные сети
- 202106302152: Единый алгоритм машинного обучения
- 202107022158: От знания - пользы мало, если это невозможно сделать в доступное время и с доступной памятью
- 202107022201: Каждый клик в интернете - рассказ компьютеру о себе
- 202107022203: Ваша карманная модель
- 202107022204: У каждого человека будет свита ботов
- 202107022205: Виды личных данных
- 202107022208: Узкие задачи легко решать на даннах, а широкие - нет
- 202107022209: налоговый кодекс растет экспоненциально
- 202107022212: Последствия падения ценности труда
- 202107022213: Учиться этике на примере неправильно
- 202107022214: Цивилизация не может без компьютеров
- 202107022216: Проблема волшебника страны Оз
- 202107022217: AGI - диктатура или демократия?
- 202107022218: Мир уже захвачен глупыми компьютерами
- 202107022219: Почему искусственная эволюция будет ограниченной?
- 202212042120: Чем выше априорная вероятность, тем выше апостериорная
Задачи
- #task Обработать все выдержки из книги в рамках Zettels 📅 2023-01-14 ✅ 2023-01-09
- #task Написать выдержку из книги 📅 2023-01-22 ✅ 2023-01-22
- #task Доработать свои заметки на основе идей из книг 📅 2023-01-28 ✅ 2023-01-28
Обратные ссылки
The Little Learner
Кажется, что это будет книга без цитат. Она выполнена в режиме диалога между учителей и...
Showcase
Это заметка, чтобы проверять, что у меня работают разные фичи в openbox. При этом сейчас...