Большая техническая энциклопедия
2 4 7
D L N
А Б В Г Д Е Ж З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я
РА РВ РЕ РО РТ РУ РЫ

Рабочая выборка

 
Точки рабочей выборки индексируются в соответствии с положением относительно этой гиперплоскости.
Векторы рабочей выборки классифицируются согласно выбранному решающему правилу.
Среди векторов рабочей выборки фиксируются такие век торы xt, которые входят в число информативных.
Селекция элементов рабочей выборки позволяет за счет отказа от классификации некоторых элементов увеличить общее число правильно классифицируемых векторов.
Окончательная классификация векторов рабочей выборки определяется путем голосования с учетом их к классификаций в различных выбранных окрестностях к рабочих точек.
При проведении индексации векторов рабочей выборки дальнейшее уменьшение числа ошибок классификации с помощью линейных решающих правил может быть достигнуто за счет селекции выборки и отыскания информативного пространства признаков.
Прогноз значений в точках Xi рабочей выборки получается подстановкой векторов Xi в полученное приближение регрессии.
Программа FOP для каждой точки рабочей выборки просматривает последователь, ность вложенных окрестностей этой точки и для каждого варианта строит с помощью базового алгоритма оптимальную разделяющую плоскость.
Формируется полная выборка векторов: векторы рабочей выборки с индексом со 0 добавляются к обучающей выборке векторов, принадлежащих к первому классу, а векторы с индексом cdj 1 добавляются к обучающей выборке векторов, принадлежащих второму классу.
Однако число векторов, исключенных из рабочей выборки для разных задач разное.
С помощью алгоритма SUMR классифицируются точки рабочей выборки.
Подпрограмма SUMR предназначена для классификации точек рабочей выборки с использованием информации о полной ( обучающей и рабочей) выборке.
Выдается на печать окончательная классификация векторов рабочей выборки. В режиме LOKOP ( IKL 6) результат классификации накоплен в массиве NKL. В режиме SUMLOK к 1-му классу относятся те векторы, для которых значение соответствующего элемента массива NOK положительно, а ко 2-му - те, для которых это значение отрицательно.
Получим теперь равномерную оценку риска на рабочей выборке.
Все алгоритмы рассматриваемой группы предназначены для классификации рабочей выборки.

На рисунке выделены ( заштрихованы) точки рабочей выборки, которые классифицируются гиперплоскостями Г0 и 1 по-разному.
Описываемый алгоритм предназначен для решения задачи классификации векторов рабочей выборки. Эта задача может решаться двумя - способами: восстановлением индикаторной функции и последующим вычислением ее значений на векторах рабочей выборки, либо непосредственно восстановлением значений индикаторной функции на векторах рабочей выборки.
Заметим, что одни и те же векторы рабочей выборки принадлежат окрестностям различных векторов, а классификация некоторых векторов рабочей выборки, данная в разных строках второго столбца таблицы, может не совпадать.
В выражении (10.59) суммирование ведется по тем векторам х рабочей выборки, которые принадлежат оптимальной окрестности; у - истинные ( но неизвестные нам) значения функциональной зависимости в точках рабочей выборки, F ( xi9 a) - вычисленные значения.
Прочерк в столбце таблицы означает, что соответствующий вектор рабочей выборки не принадлежит окрестности, для которой проведена индексация.
В выражении (5.36) суммирование ведется по тем векторам х рабочей выборки, которые принадлежат оптимальной окрестности; yt - истинные ( но неизвестные нам) значения функциональной зависимости в точках рабочей выборки, Fixt, а) - вычис-ленные значения.
Параметр 1К ( 4) указывает, используются ли векторы рабочей выборки при построении таксонной структуры. Векторы, для которых MB ( z) 2, присоединяются к ближайшему таксону.
Рассмотрим пример, иллюстрирующий разницу в решении задачи классификации векторов рабочей выборки с помощью решающего правила, минимизирующего средний риск по обучающей последовательности, и с помощью правила, доставляющего минимум суммарному риску.
С помощью блока FORM AS выделяется к векторов, принадлежащих рабочей выборке.
В группе информативных векторов помечаются те векторы, которые принадлежат рабочей выборке.
Решение этой частной задачи состоит в том, чтобы так индексировать точки рабочей выборки первым и вторым классом, чтобы расстояние между выпуклыми оболочками множества векторов обучающей и рабочей выборок первого класса и множества векторов обучающей и рабочей выборок второго класса было максимальным.
Такая схема решения задачи опирается на полный перебор всех вариантов индексации векторов рабочей выборки. Для очень малых длин рабочей выборки ( 2 - f - 8) этот путь допустим.
Здесь же рассмотрим пример, иллюстрирующий разницу в решении задачи классификации векторов рабочей выборки методом минимизации суммарного риска и с помощью решающего правила минимизирующего эмпирический риск на обучающей последовательности. На рис. 20 векторы первого класса обучающей последовательности обозначены крестиками, векторы второго класса - кружочками. Черными точками показаны векторы экзаменационной выборки.
С помощью найденного правила F ( x, a8) классифицируются элементы рабочей выборки.
Группа векторов обучающей выборки, принадлежащих к 1-му классу, пополняется векторами рабочей выборки, отнесенным ] г при классификации к 1-му классу. Группа векторов обучения из 2-го класса пополняется элементами рабочей выборки, отнесенными ко 2-му классу.

С помощью найденного правила F ( х, а) классифицируются элементы рабочей выборки.
Формируется массив М, характеризующий распределение векторов по классам в обучающей и рабочей выборке.
Алгоритм SUMR заканчивает работу, Сообщаются результаты - информация о принадлежности каждого вектора рабочей выборки одному из двух классов.
На множестве я, состоящем из / элементов обучающей последовательности и из k элементов рабочей выборки, задается таксонная структура.
В первом случае рекомендуется воспользоваться алгоритмом построения линейного решающего правила с учетом положения точек рабочей выборки.
В дальнейшем нам понадобится равномерная по Fix, а) оценка частоты ошибок на рабочей выборке.
При нахождении таксонной структуры также используется полная выборка, причем сразу фиксируется принадлежность каждого элемента рабочей выборки тому или иному таксону.
Критерий, оценивающий средний риск, позволяет взвесить эти факторы и выбрать для каждой точки рабочей выборки оптимальную окрестность и соответствующее приближение регрессии.
Далее линейные оценки регрессии в локальных окрестностях используются для прогноза значений выходной величины в точках рабочей выборки.
Требуется с помощью линейного решающего правила F ( x, a) так индексировать точки рабочей выборки, чтобы Минимизировать число ошибок классификации.
Пусть Х [ - некоторая окрестность, содержащая / точек обучающей выборки и ki точек рабочей выборки.
Здесь 2j ( r) означает, что суммирование ведется лишь по классификациям тех векторов рабочей выборки, которые принадлежат выбранной, окрестности точки хг.
Алгоритм SUMR предназначен для определения с помощью линейных решающих правил значений индикаторной функции в точках рабочей выборки.
Алгоритм SUMKL предназначен для определения с помощью кусочно-линейных решающих правил значений индикаторной функции в точках рабочей выборки.
Для алгоритма ЛОР в массиве YPMIN накапливаются средние значения построенных оценок регрессии на тех векторах рабочей выборки, которые принадлежат оптимальным окрестностям, полученным в блоке МНК.

Для того, чтобы геолого-статистические модели были надежны, проводят классификацию объектов, и в рабочую выборку включают только объекты, близкие по комплексу геолого-физическим параметрам.
Алгоритм SUMKL реализует аналогичную процедуру, но более эффективно использует дополнительную информацию, содержащуюся в рабочей выборке. Программа FOP для каждого уровня структуры проводит оптимизацию кусочно-линейного разделения с учетом положения точек рабочей выборки.
Рассмотренный алгоритм использует локальное поведение-функции, определяющей классификацию объектов в пространстве описания, вблизи каждой точки рабочей выборки. Даже в тех случаях, когда решающее правило существенно нелинейно, в некоторой окрестности оно приближается к линейному. С ростом окрестности качество линейного приближения падает. С другой стороны, растет часть обучающей и рабочей выборок, попадающая в окрестность. Алгоритм ищет компромисс между этими противоборствующими факторами.
 
Loading
на заглавную 10 самыхСловариО сайтеОбратная связь к началу страницы

© 2008 - 2014
словарь online
словарь
одноклассники
XHTML | CSS
Лицензиар ngpedia.ru
1.8.11