мпр_1

СОДЕРЖАНИЕ УЧЕБНОГО МАТЕРИАЛА
Информацию о наблюдаемых объектах, процессах или явления получают при изучении разных физических величин. Например, состояние организма можно описать системой таких параметров, как температура тела, частота пульса, давление, данные кардиограммы и т.п. Некоторые величины могут приобретать любые значения в определенном интервале. Их называют непрерывными, а информацию, которую они содержат, непрерывной или аналоговой. Непрерывными величинами являются, например, кривые изменения массы, температуры, расстояния и т.п. Много величин могут приобретать лишь целочисленные значения. Их называют дискретными, а информацию, которую они содержат, - дискретной. Примеры дискретных величин: количество электронов в атоме, частота пульса, количество больных в отделении и т.п. Таким образом, несмотря на разнообразие видов, информация оказывается всего только в двух формах - непрерывной и дискретной. Любую непрерывную величину с определенной степенью точности можно подать в дискретной форме.
Зачастую, медицинскими данными считают только те, которые получают при измерении характеристик пациента. Количество характеристик пациента, больного или здорового человека, немалое. Разнообразные медицинские данные по объему помещенной информации можно поделить на такие виды:
качественные признаки (наличие боли, повышенной температуры, цвет кожных покровов, перкусийные и аускультативные феномены);
единичные числовые данные (вес, артериальное давление, температура тела, количество лейкоцитов, ШОЕ);
динамические данные (электрограммы - ЭКГ, ЭЕГ, ЭГГ; реограммы РКГ, РЭГ, фонокардиограмма);
статические картины (рентгенограмма, авторадиограмма);
динамические картины (поле биопотенциалов, электрокардиограмма).
Для медицинских данных характерны специфические особенности:
нечеткость, а иногда и несогласование терминологии;
большое количество качественных признаков, которые субъективно оценивают состояние больного;
отсутствие единых алгоритмов описания состояния больного, диагностического и лечебного процессов;
недостаточный уровень стандартизации медицинской документации;!
значительная вариабельность медицинских данных, малые выборки с неизвестными законами распределения, которые значительно затрудняет статистические расчеты и построение соответствующих оценок.
Сегодня почти невозможно пересчитать все методы, с помощью которых врачи получают медицинские данные. Развитие наук, открытие новых явлений природы, новые достижения изобретателей все время расширяют возможности практической медицины, появляются новые методы, диагностическая и терапевтическая аппаратура. Расширяется круг медицинских характеристик за счет появления новых. Увеличивается информативность уже давно существующих медицинских характеристик вследствие трансформации, качественного выражения их в числовом, графическом или даже картинном виде. Соответственно, быстро возрастает объем медицинской информации, с которой приходится иметь дело медицинским работникам всех уровней и учреждений здравоохранения,
Прогресс в решении проблем моделирования интеллектуальных систем, к которым относятся и экспертные, обусловленный применением искусственных нейронных сетей. Интеллектуальные системы на основе нейронных сетей разрешают с успехом решать проблемы распознавания образов, прогнозирования, оптимизации, ассоциативной памяти и управления, т.е. те, где традиционные подходы не всегда имеют успешное применение. Это связано с тем, что метод нейросетевого моделирования разрешает решать ряд задач в тех областях, где линейные модели не могут быть использованы в силу ряда объективных причин. Особенно это касается обработки данных медицинских исследований.
Как известно организм человека представляет нелинейную систему и решение таких задач как классификация, прогнозирование состояний, а также выбор оптимального метода лечения и профилактики заболеваний невозможны с применением линейных математических методов. Нейронные сети способны принимать решение, основываясь на скрытых закономерностях, которые оказываются ими, в многомерных данных. Отличительное свойство нейросетей и заключается в том, что они не программируются и не используют никаких правил вывода для постановки диагноза, а учатся делать это на примерах. В медицине находит применение и другая особенность нейросетей - их способность предусматривать временные последовательности. К настоящему времени разработанный ряд нейросетевых систем фильтрации электрокардиограмм, которые разрешают уменьшать нелинейный и нестационарный шум значительно лучше, чем методы, которые использовались раньше.
Несмотря на значительные успехи в применении нейронных сетей в медицине существует ряд проблем с их внедрением. Это связано в первую очередь с отсутствием у врачей информации о возможностях нейронных сетей для решения медицинских задач, а также доступных практических пособий по их применению.
Нейронные сети
Нейронные сети - класс аналитических методов, построенных на (гипотетических) принципах обучения мыслящим существ и функционированию мозга, которые позволяют прогнозировать значения некоторых сменных в новых наблюдениях на основе результатов других наблюдений (для этих же или других сменных) после прохождения этапа так называемого обучения на имеющихся данных.
Основные понятия о нейронных сетях
Наиболее часто нейронные сети используются для решения следующих задач:
классификация образов - указание на принадлежность входного образа, представленного вектором признаков, одному или нескольким предварительно определенным классам;
кластеризация - классификация образов при отсутствии учебной выборки с метками классов;
прогнозирование - предусмотрение значения y(tn+1) при известной последовательности y(t1), y(t2) ... y(tn);
оптимизация - обнаружение решения, которое удовлетворяет систему ограничений и максимизирует или минимизирует целевую функцию. Память, которая адресуется по смыслу (ассоциативная память) - память, доступная при указании заданного содержания;
управление - расчет такого входного влияния на систему, за который система работает по желательной траектории.
Структурной основой нейронной сети является формальный нейрон. Нейронные сети возникли из попыток воссоздать способность биологических систем учиться, моделируя низкокорневую структуру мозга. Для этого в основу нейросетевой модели ложится элемент, который имитирует в первом приближении свойства биологического нейрона - формальный нейрон(далее просто нейрон). В организме человека нейроны это особые клетки, способны распространять электрохимические сигналы.
Нейрон имеет разветвленную структуру для введения информации (дендриты), ядро и выход, который разветвляется (аксон). Будучи соединенными определенным образом, нейроны образовывают нейронную сеть. Каждый нейрон характеризуется определенным текущим состоянием и имеет группу синапсов - однонаправленных входных связей, соединенных с выходами других нейронов, а также имеет аксон - исходная связь данного нейрона, за которым сигнал (нарушение или торможение) поступает на синапсы следующих нейронов (рис. 8.1).
Рис. 8.1. Структура формального нейрона.
Каждый синапс характеризуется величиной синапсичной связи или его весом wi, что по физическому содержанию эквивалентная электрической проводимости.
Текущее состояние (уровень активации) нейрона определяется, если взвешенная сумма его входов:
13 EMBED Microsoft Equation 3.0 1415 (1)
где множество сигналов, обозначенных x1, x2,..., xn, поступает на вход нейрона, каждый сигнал увеличивается на соответствующий вес w1, w2,...,wn,и формирует уровень его активации - S. Выход нейрона есть функция уровня его активации:
Y=f(S) (2)
При функционировании нейронных сетей выполняется принцип параллельной обработки сигналов. Он достигается путем объединения большого числа нейронов в так называемые пласты и соединения определенным образом нейронов разных пластов, а также, в некоторых конфигурациях, и нейронов одного пласта между собой, причем обработка взаимодействия всех нейронов ведется послойно.
Рис. 8.2. Архитектура нейронной сети с n нейронами во входном и тремя нейронами в исходном пласте (однослойный персептрон).
В качестве примера простейшей нейронной сети, рассмотрим однослойный перcептрон с n нейронами во входном и тремя нейронами в исходном пласте (рис. 8.2). Когда на n входов поступают какие-то сигналы, они проходят по синапсам на 3 исходные нейрона. Эта система образовывает единый пласт нейронной сети и выдает три исходных сигнала:
Очевидно, что все весовые коэффициенты синапсов одного пласта нейронов можно свести в матрицу wj, каждый элемент которой wij задает величину синапсичной связи i-го нейрона входного и j-го нейрона исходного пласта(3).
13 EMBED Microsoft Equation 3.0 1415 (3)
Таким образом, процесс, который происходит в нейронной сети, может быть записан в матричной форме:
13 EMBED Microsoft Equation 3.0 1415, (4)
где x и y - соответственно входной и исходный векторы, f(v) - активационная функция, которая применяется поэлементно к компонентам вектора v.
Выбор структуры нейронной сети осуществляется согласно особенностям и сложности задачи. Для решения некоторых отдельных типов задач уже существуют оптимальные конфигурации. Если же задача не может быть сведена ни к одному из известных типов, разработчику приходится решать сложную проблему синтеза новой конфигурации.
Возможная такая классификация существующих нейросетей:
По типу входной информации:
сети, которые анализируют двоичную информацию;
сети, которые оперируют с действительными числами.
По методу обучения:
сети, которые необходимо научить перед их применением;
сети, которые не нуждаются в предыдущем обучении, способны обучаться самостоятельно в процессе работы.
По характеру распространения информации:
однонаправленные, в которых информация распространяется только в одном направлении от одного пласта к другому;
рекурентные сети, в которых исходный сигнал элемента может снова поступать на этот элемент и другие элементы сети этого или предыдущего пласта как входной сигнал.
По способу преобразования входной информации:
автоассоциативные;
гетероассоциативные.
Развивая дальше вопрос о возможной классификации нейронных сетей, важно отметить существования бинарных и аналоговых сетей. Первые оперируют с двоичными сигналами, и выход каждого нейрона может принимать только два значения: логический нуль ("приостановленное" состояние) и логическая единица ("возбужденное" состояние). Еще одна классификация разделяет нейронные сети на синхронные и асинхронные. В первом случае в каждый момент времени свое состояние изменяет лишь один нейрон. Во второму - состояние изменяется сразу у целой группы нейронов, как правило, во всем пласте.
Сети также можно классифицировать по количеству пластов. На рис. 8.3 представлен двухслойный персептрон, полученный из персептрона на рис. 8.2 путем добавления второго пласта, который состоит из двух нейронов.
Рис. 8.3. Архитектура нейронной сети с однонаправленным распространением сигнала – двухслойный персептрон.
Если рассматривать работу нейронных сетей, которые решают задачу классификации образов, то вообще их работа сводится к классификации (обобщения) входных сигналов, которые принадлежат n-мерному гиперпространству, по некоторому числу классов. С математической точки зрения это происходит путем разбивки гиперпространства гиперплоскостями (запись для случая однослойного персептрона)
13 EMBED Microsoft Equation 3.0 1415, (5),
где k=1...m – номер класса.
Каждая полученная область является областью определения отдельного класса. Число таких классов для одной нейронной сети персептронного типа не превышает 2m, где m - число выходов сети. Однако не все из них могут быть распределены данной нейронной сетью.
Алгоритм построения нейронных сетей
Оценка адекватности нейросетевых моделей
При построении нейросетевых моделей очень важным являются вопросы оценки их качества. Для качественной модели нужное минимальное значение ошибки модели.
Как мера ошибки в моделях регрессии может рассматриваться стандартная среднеквадратичная ошибка, коэффициент множественной корреляции, судьба естественной дисперсии прогнозируемого признака, который не достал объяснения в рамках модели.
В моделях классификации как мера ошибки может быть избрана судьба случаев правильно классифицированных моделью.
В связи с высокими потенциальными возможностями обучения нейросетевых моделей важную роль при оценке адекватности модели играет вопрос «переобучение» модели. В связи с этим рассмотрим процесс построения модели подробнее.
Итак, нужно, чтобы на основании конечного набора параметров X, названных учебным множеством, была построена модель Mod некоторого объекта Obj. Процесс получения Mod из имеющихся отрывистых экспериментальных сведений о системе Obj может рассматриваться, как обучение модели поведению Obj согласно заданному критерию, настолько близко, насколько это возможно. Алгоритмически, обучение означает подстраивание внутренних параметров модели (весов синаптических связей в случае нейронной сети) с целью минимизации ошибки модели, которая описывает некоторым образом отклонения поведения модели от системы - E = |Obj - Mod |.
Прямое измерение указанной ошибки модели на практике невозможно, поскольку функция Obj при произвольных значениях аргумента неизвестная. Однако возможное получение ее оценки:
13 EMBED Microsoft Equation 3.0 1415,
где суммирование проводится по учебному множеству X. При использовании базы данных наблюдений за системой, для обучения может отводиться некоторая ее часть, названная в этом случае учебной выборкой. Для учебных примеров X отклики системы Obj известные. Таким образом, EX - ошибка обучения для модели.
В приложениях пользователя обычно интересуют предвиденные свойства модели. При этом главным является вопрос, каким будет отклик системы на новое влияние, пример которого отсутствует в базе данных наблюдений - N. Неизвестная ошибка, которая допускается моделью Mod на данных, которые не использовались при обучении, называется ошибкой обобщения модели EN.
Основной целью при построении информационной модели является уменьшение именно ошибки обобщения, поскольку минимальная ошибка обучения гарантирует адекватность модели лишь в заранее избранных точках (а в них значение отклика системы известно и без всякой модели). Проводя аналогии с обучением в биологии, можно сказать, что минимальная ошибка обучения отвечает прямому запоминанию учебной информации, а минимальная ошибка обобщения - формированию понятий и привычек, которые разрешают распространить полученный из обучения опыт на новые условия. Последнее значительно более ценное при проектировании нейросетевых систем, так как для непосредственного запоминания информации лучше приспособлены другие, не нейронные устройства компьютерной памяти.
Важно отметить, что минимальная ошибка обучения не гарантирует минимальную ошибку обобщения. Классическим примером является построение модели функции (аппроксимация функции) по нескольким заданным точкам полиномом высокого порядка. Значения полинома (модели) при довольно высокой его степени являются точными в учебных точках, т.е. ошибка обучения равняется нулю. Однако значение в промежуточных точках могут значительно отличаться от аппроксимирующей функции, ведь ошибка обобщения такой модели может быть неприемлемо большой.
Поскольку истинное значение ошибки обобщения не доступно, на практике используется ее оценка. Для ее получения анализируется часть примеров из имеющейся базы данных, для которых известны отклики системы, но которые не использовались при обучении. Эта выборка примеров называется тестовой выборкой. Ошибка обобщения оценивается, как отклонение модели на множестве примеров из тестовой выборки.
Оценка ошибки обобщения является принципиальным моментом при построении модели. На первый взгляд может показаться, что сознательный отказ от использования части примеров при обучении может только ухудшить итоговую модель. Однако без этапа тестирования единой оценкой качества модели будет лишь ошибка обучения, которая, как уже отмечалось, мало связана с предвиденными способностями модели. В профессиональных исследованиях могут использоваться несколько независимых тестовых выборок, этапы обучения и тестирования повторяются многократно с вариацией начального распределения весов нейросети, ее топологии и параметров обучения. Окончательный выбор "наилучшей" нейросети делается с учетом имеющегося объема и качества данных, специфики задачи, с целью минимизации риска большой ошибки обобщения при эксплуатации модели.
Построение нейронной сети (после выбора входных переменных) состоит из следующих шагов:
Выбор начальной конфигурации сети.
Проведение экспериментов с разными конфигурациями сетей. Для каждой конфигурации проводиться несколько экспериментов, чтобы не получить ошибочный результат из-за того, что процесс обучения попал в локальный минимум. Если в очередном эксперименте наблюдается недообучение (сеть не выдает результат приемлемого качества), необходимо прибавить дополнительные нейроны в промежуточный пласт. Если это не помогает, попробовать прибавить новый промежуточный пласт. Если имеет место переобучение (контрольная ошибка постоянно возрастает), необходимо удалить несколько скрытых элементов.
Отбор данных
Для получения качественных результатов учебное, контрольное и тестовое множества должны быть репрезентативными (представительными) с точки зрения сути задачи (больше того, эти множества должны быть репрезентативными каждая отдельно). Если учебные данные не репрезентативны, то модель, как минимум, будет не очень красивой, а в худшем случае - непригодной.
Обучение сети
Обучение сети лучше рассмотреть на примере многослойного персептрона. Уровнем активации элемента называется взвешенная сумма его входов с добавленным к ней предельным значением. Таким образом, уровень активации представляет собой простую линейную функцию входов. Эта активация потом превратится с помощью сигмавидной (что имеет S-Образную форму) кривой.
Комбинация линейной функции нескольких сменных и скалярной сигмавидной функции приводит к характерному профилю "сигмавидного склона", который выдает элемент первого промежуточного пласта сети. При изменении весов и порогов изменяется и поверхность отклика. При этом может изменяться как ориентация всей поверхности, так и крутизна склона. Большим значением весов отвечает более крутой склон. Если увеличить все веса в два раза, то ориентация не изменится, а наклон будет более крутым.
В многослойной сети подобные функции отклика комбинируются одна из одной с помощью построения их линейных комбинаций и применения нелинейных функций активации. Перед началом обучения сети весам и порогам случайным образом присваиваются небольшие по величине начальные значения. Тем самым отклики отдельных элементов сети имеют малый наклон и ориентированы хаотически - фактически они не связаны друг с другом. По мере того, как происходит обучение, поверхности отклика элементов сети поворачиваются и смещаются в нужное положение, а значение весов увеличиваются, поскольку они должны моделировать отдельные участки целевой поверхности отклика.
В задачах классификации исходный элемент должен выдавать сильный сигнал в случае, если данное наблюдение принадлежит к классу, который нас интересует, и слабый - в противоположном случае. Иначе говоря, этот элемент должен стремиться смоделировать функцию, равную единице в той области пространства объектов, где располагаются объекты из нужного класса, и равную нулю вне этой области. Такая конструкция известная как дискриминантная функция в задачах распознавания. "Идеальная" дискриминантная функция должна иметь плоскую структуру, так чтобы точки соответствующей поверхности располагались или на нулевом уровне.
Если сеть не содержит скрытых элементов, то на выходе она может моделировать только одинарный "сигмавидный склон": точки, которые находятся по одну его сторону, располагаются низко, по другую - высоко. При этом всегда будет существовать область между ними (на склоне), где высота принимает промежуточные значения, но по мере увеличения веса эта область будет суживаться.
Теоретически, для моделирования любой задачи довольно многослойного персептрона с двумя промежуточными пластами (этот результат известный как теорема Колмогорова). При этом может оказаться и так, что для решения некоторой конкретной задачи более простой и удобной будет сеть с еще большим числом пластов. Однако, для решения большинства практических задач достаточно всего одного промежуточного пласта, два пласта применяются как резерв в особых случаях, а сети с тремя пластами практически не применяются.

Root Entry

Приложенные файлы

  • doc 8981424
    Размер файла: 141 kB Загрузок: 0

Добавить комментарий