Александр Власкин - Глоссариум по искусственному интеллекту: 2500 терминов
- Название:Глоссариум по искусственному интеллекту: 2500 терминов
- Автор:
- Жанр:
- Издательство:неизвестно
- Год:неизвестен
- ISBN:9785005686770
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Александр Власкин - Глоссариум по искусственному интеллекту: 2500 терминов краткое содержание
Глоссариум по искусственному интеллекту: 2500 терминов - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Логическое программирование ограничений (Сonstraint logic programming) – это расширенная версия логического программирования, которая создается путем комбинирования ограниченного программирования с логическим программированием. Ограниченное программирование – это форма декларативного программирования, которая использует математические ограничения, чтобы определить, как переменные в программе связаны друг с другом.
Ложноотрицательный показатель (False negative rate) – это доля фактических положительных примеров, для которых прогнозируется отрицательный класс. Ложноотрицательный показатель равен отношению ложных отрицательных результатов к сумме ложных отрицательных и истинно положительных результатов.
Ложный отрицательный результат (False Negative) – это случай, в котором модель ошибочно определила отрицательный класс. Например, модель сделала вывод, что конкретное сообщение электронной почты не было спамом (отрицательный класс), но по факту оно действительно было спамом.
Ложный положительный результат( False Positive) – это случай, в котором модель ошибочно предсказала положительный класс. Например, модель сделала вывод, что конкретное сообщение электронной почты было спамом (положительный класс), но на самом деле это письмо являлось частью важной переписки. Частота ложных срабатываний (FPR) – ось X на кривой ROC.
Локальное устройство (Local device) – это устройства, входящие в сеть, которая покрывает относительно небольшую территорию или небольшую группу зданий.
Локальный сервер (Local server) – это хостинг, работающий при помощи программ, которые осуществляют его эмуляцию на личном компьютере.
Лямбда (Lambda) – это функция в программировании на Python, анонимная функция или функция без имени. Это небольшая и ограниченная функция, состоящая не более чем из одной строки. Как и обычная функция, лямбда-функция может иметь несколько аргументов в одном выражении. [ 43 43 Лямбда [Электронный ресурс] www.guru99.com URL: https://www.guru99.com/python-lambda-function.html (дата обращения: 07.07.2022)
]
«М»
Маркер (Token)в языковой модели – это элементарная единица, на которой модель обучается и делает прогнозы.
Марковская модель (Markov model) —это статистическая модель, имитирующая работу процесса, похожего на марковский процесс с неизвестными параметрами, задачей которой является определение неизвестных параметров на основе наблюдаемых данных.
Марковские процессы принятия решений (MDP) (Markov decision process) – это стохастический процесс управления с дискретным временем. Он обеспечивает математическую основу для моделирования принятия решений в ситуациях, когда результаты частично случайны и частично находятся под контролем лица, принимающего решения. MDP полезны для изучения задач оптимизации, решаемых с помощью динамического программирования и обучения с подкреплением.
Марковский процесс (Markov process) – это случайный процесс, эволюция которого после любого заданного значения временного параметра t не зависит от эволюции, предшествовавшей t, при фиксированных параметрах процесса [ 44 44 Марковский процесс [Электронный ресурс] //en.wikipedia.org. URL: https://ru.wikipedia.org/wiki/%D0%9C%D0%B0%D1%80%D0%BA%D0%BE%D0%B2%D1%81%D0%BA%D0%B8%D0%B9_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81 (дата обращения: 07.07.2022)
].
Марковское свойство (Markov property) – этот термин, относится к свойству случайного процесса без памяти. Назван в честь русского математика Андрея Маркова. [ 45 45 Марковское свойство [Электронный ресурс] //wikimili.com URL: https://wikimili.com/en/Markov_property/ (дата обращения: 07.07.2022)
]
Маска R-CNN (Mask R-CNN) – это свёрточная нейронная сеть (CNN), передовая технология сегментации изображений. Этот вариант глубокой нейронной сети обнаруживает объекты на изображении и создает высококачественную маску сегментации для каждого экземпляра. Используя Mask R-CNN можно автоматически сегментировать и создавать попиксельные маски для каждого объекта на изображении. Можно применять Mask R-CNN как к изображениям, так и к видеопотокам.
Маскированная языковая модель (Masked language model) –это языковая модель, которая предсказывает вероятность того, что токены-кандидаты заполнят пробелы в последовательности. Большинство современных моделей маскированного языка являются двунаправленными.
Масштабирование( Scaling) – это обычно используемая практика в разработке признаков, чтобы оптимизировать диапазон значений объекта, чтобы он соответствовал диапазону других объектов в наборе данных.
Масштабируемость (Scalability) – это способность системы, сети или процесса справляться с увеличением рабочей нагрузки (увеличивать свою производительность) при добавлении ресурсов (обычно аппаратных).
Математическая оптимизация (математическое программирование)( Mathematical optimization) – это выбор наилучшего элемента по некоторому критерию из некоторого набора доступных альтернатив. Это чрезвычайно мощная технология предписывающей аналитики, которая позволяет компаниям решать сложные бизнес-задачи и более эффективно использовать доступные ресурсы и данные
Матрица неточностей (Confusion matrix) – это таблица ситуационного анализа, в которой суммируются результаты прогнозирования модели классификации в машинном обучении. Записи в наборе данных сводятся в виде матрицы в соответствии с реальной категорией и оценкой классификации, сделанной моделью классификации.
Матрица элементов (Item matrix) —в рекомендательных системах – это матрица вложений, созданная матричной факторизацией, которая содержит скрытые сигналы о каждом элементе. Каждая строка матрицы элементов содержит значение одной скрытой функции для всех элементов. Матрица элементов имеет то же количество столбцов, что и целевая матрица, которая факторизуется. Например, если система рекомендаций по фильмам оценивает 10 000 названий фильмов, матрица элементов будет состоять из 10 000 столбцов.
Матричная факторизация (Matrix factorization) –это разложение одной матрицы на производные нескольких матриц. Существует множество различных способов факторизации матриц. Многие сложные матричные операции не могут быть решены эффективно или стабильно с использованием ограниченной точности компьютеров. Разложение матриц на составные части упрощает вычисление более сложных матричных операций.
Машина Больцмана (Boltzmann machine) – это вид стохастической рекуррентной нейронной сети, изобретенной Джеффри Хинтоном и Терри Сейновски. Машина Больцмана может рассматриваться как стохастический генеративний вариант сети Хопфилда. Эта модель оказалась первой нейронной сетью, способной обучаться внутренним репрезентациям, и может представлять и решать сложные комбинаторные задачи.
Читать дальшеИнтервал:
Закладка: