Верховный алгоритм

·

Книга представляет из себя обзорную экскурсию по подходам в [[машинном обучении]]. Для этого автор показывается, что на момент написания книги существует пять подходов: символисты, коннективисты, эволюционеры, байесисты и аналогисты. В каждом из них есть свой опорный алгоритм: [[обратная дедукция]], [[обратное распространение ошибки]], [[генетическое программирование]], [[байесовский вывод]] и метод опорных векторов. Верховный же алгоритм должен объеденить их всех. Для этого надо рассмотреть хорошие и плохие стороны каждого из подходов и получить универсальный алгоритм. Финальным наброском в книге служит логическая цепь Маркова.

Цитаты

  • 202106142029: Величайшая задача науки
  • 202106142030: Увеличении количества важных действий без усилий
  • 202106142031: Концептуальная модель
  • 202106142032: Пять племён машинного обучения
  • 202106142034: Алгоритм - и теория, и устройство
  • 202106172039: Универсальный обучающий алгоритм
  • 202106202041: Мыслители - лисы и ежи
  • 202106202042: ИЛИ-НЕ - базовый вентиль
  • 202106202044: No free lunch
  • 202106202045: Индюк индуктивист
  • 202106202048: Обучение без знаний невозможно
  • 202106202049: Начинать с ограничений и ослаблять
  • 202106212041: Точность алгоритма зависит от количества примеров
  • 202106212042: Смещение и дисперсия в машинном обучении
  • 202106212043: Случайная выборка для определение смещения и дисперсии
  • 202106212044: Индукция - противоположность дедукции
  • 202106212045: Хорошее дерево решений даёт низкую энтропию
  • 202106212046: Три уровня системы обработки информации
  • 202106212047: Набор правил компактнее дерева решений
  • 202106212048: Дедукцию легко запутить шумом
  • 202106212049: Перцептрон
  • 202106212053: Переобучение возникает, когда у вас слишком много гипотез и недостаточно данных, чтобы их различить.
  • 202106212054: Обучение - гонка между гипотезами и данными.
  • 202106222050: Перцептрон ищет гиперплоскости для разделения примеров
  • 202106222051: Состояние минимальной энергии в нейросети - это воспоминания
  • 202106222052: Нейрон - преобразователь напряжения в частоту
  • 202106222053: Иголка в глубиннах гиперпространства
  • 202106222054: Многоярусные разреженные автокодировщики как AGI
  • 202106232054: Ошибка локального максимума
  • 202106232055: Дилемма изучения-применения
  • 202106252055: теормеа Байеса - обновление доверия к гипотезе при обновлении данных
  • 202106252056: Вероятность зависит от внутренних убеждений
  • 202106252057: Упрощай до тех пор, пока это возможно, а потом упрости еще немного
  • 202106252058: Google PageRank
  • 202106252059: байесовская сеть используется для оценки игроков в Xbox
  • 202106252100: Связь при априорной независимости
  • 202106262058: Сначала подгонять под важные данные
  • 202106262059: Оптимизация при наличии ограничений
  • 202106262100: Метод опорных векторов использует большую размерность
  • 202106262101: Все открытия - продукт аналогии
  • 202106282101: Слова не имеют смысла без реальных вещей
  • 202106282102: Кластеры можно объединять в кластеры
  • 202106282103: Метод главных компонент в биологии
  • 202106282104: Isomap - алгоритм понижения размерности
  • 202106282105: Обучение с подкреплений должен иметь шум
  • 202106282106: Построение привычек - ключ к успеху
  • 202106302149: Дефисы для запоминания
  • 202106302150: Замедление при увеличение фрагментов
  • 202106302151: Повсеместные сети
  • 202106302152: Единый алгоритм машинного обучения
  • 202107022158: От знания - пользы мало, если это невозможно сделать в доступное время и с доступной памятью
  • 202107022201: Каждый клик в интернете - рассказ компьютеру о себе
  • 202107022203: Ваша карманная модель
  • 202107022204: У каждого человека будет свита ботов
  • 202107022205: Виды личных данных
  • 202107022208: Узкие задачи легко решать на даннах, а широкие - нет
  • 202107022209: налоговый кодекс растет экспоненциально
  • 202107022212: Последствия падения ценности труда
  • 202107022213: Учиться этике на примере неправильно
  • 202107022214: Цивилизация не может без компьютеров
  • 202107022216: Проблема волшебника страны Оз
  • 202107022217: AGI - диктатура или демократия?
  • 202107022218: Мир уже захвачен глупыми компьютерами
  • 202107022219: Почему искусственная эволюция будет ограниченной?
  • 202212042120: Чем выше априорная вероятность, тем выше апостериорная

Задачи

  • #task Обработать все выдержки из книги в рамках Zettels 📅 2023-01-14 ✅ 2023-01-09
  • #task Написать выдержку из книги 📅 2023-01-22 ✅ 2023-01-22
  • #task Доработать свои заметки на основе идей из книг 📅 2023-01-28 ✅ 2023-01-28

Обратные ссылки