Глоссариум по искусственному интеллекту: 2500 терминов. Том 1 - страница 20




Выбор переменных (Feature selection) – это выбор признаков, также известный как выбор переменных, выбор атрибутов или выбор подмножества переменных, представляет собой процесс выбора подмножества соответствующих признаков (переменных, предикторов) для использования в построении модели.


Выборка (Sampling) – это использование при анализе информации не всего объема данных, а только их части, которая отбирается по определенным правилам (выборка может быть случайной, стратифицированной, кластерной и квотной).


Выборка кандидатов (Candidate sampling) — это оптимизация времени обучения, при которой вероятность рассчитывается для всех положительных меток, но только для случайной выборки отрицательных меток. Например, если нам нужно определить, является ли входное изображение биглем или ищейкой, нам не нужно указывать вероятности для каждого примера, не связанного с собакой.


Выбросы (Outliers) – это точки данных, которые значительно отличаются от других, присутствующих в данном наборе данных. Наиболее распространенные причины выбросов в наборе данных: Ошибки ввода данных, Ошибка измерения, Ошибки эксперимента, Преднамеренные ошибки, Ошибки обработки данных, Ошибки выборки, Естественный выброс.


Вывод (Inference) в искусственном интеллекте и машинном обучении – это составление прогнозов путем применения обученной модели к немаркированным примерам.


Выделение признаков (Feature extraction) – это разновидность абстрагирования, процесс снижения размерности, в котором исходный набор исходных переменных сокращается до более управляемых групп признаков для дальнейшей обработки, оставаясь при этом достаточным набором для точного и полного описания исходного набора данных. Выделение признаков используется в машинном обучении, распознавании образов и при обработке изображений. Выделение признаков начинает с исходного набора данных, выводит вторичные значения (признаки), для которых предполагается, что они должны быть информативными и не должны быть избыточными, что способствует последующему процессу обучения машины и обобщению шагов, а в некоторых случаях ведёт и к лучшей человеческой интерпретацией данных.


Выполнение графа (Graph execution) – это среда программирования TensorFlow, в которой программа сначала строит граф, а затем выполняет весь или часть этого графа. Выполнение графа – это режим выполнения по умолчанию в TensorFlow 1.x.


Выполнимость (Satisfiability). В математической логике – это элементарные понятия семантики. Формула выполнима, если можно найти интерпретацию (модель), которая делает формулу истинной. Формула действительна, если все интерпретации делают ее истинной. Противоположностями этих понятий являются невыполнимость и недействительность, то есть формула невыполнима, если ни одна из интерпретаций не делает формулу истинной, и недействительна, если какая-либо такая интерпретация делает формулу ложной.


Выпрямленный линейный блок (Rectified Linear Unit) – это блок, использующий функцию выпрямителя в качестве функции активации.


Выпуклая оптимизация (Convex optimization) – это процесс использования математических методов, таких как градиентный спуск, для нахождения минимума выпуклой функции. Многие исследования в области машинного обучения были сосредоточены на формулировании различных задач выпуклой оптимизации и более эффективном решении этих проблем.