Пример: Транспортная логистика
Я ищу:
На главную  |  Добавить в избранное  

Программированиеи компьютеры /

Разделение хромотографических пиков нейросетями



Скачать реферат


ТОМСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ СИСТЕМ

УПРАВЛЕНИЯ И РАДИОЭЛЕКТРОНИКИ (ТУСУР)

Кафедра автоматизации обработки информации (АОИ)

Творческая работа

Программная реализация искусственной

нейронной сети для разделения

хроматографических пиков.

ОТЧЁТ

Преподаватель Студент гр.425-2

________ Н.В. Петров К.В. Водкин

" " июня 1999 г. " " июня 1999 г.

1999

1 Необходимость

Одной из актуальных проблем в хроматографии является выделе-ние пиков из их суперпозиции для более точного расчёта площади каждого из них.

Существует множество статистических методов решения этой зада-чи (метод наименьших квадратов, метод главных компонент и т. д.). Но в настоящее время наиболее интересен подход с использованием в этой об-ласти искусственных нейронных сетей (ИНС).

Искусственные нейронные сети перестают быть экзотикой. В по-следние годы разработки в этой области представляют большой интерес не только для учёного света, но и для практичных людей. Областей их приме-нения множество. Это автоматизация процессов распознавания образов, адаптивное управление, аппроксимация функционалов, прогнозирование, создание экспертных систем, организация ассоциативной памяти и многие другие приложения.

При решении задачи выделения хроматографических пиков из их суперпозиции искусственные нейронные сети дают более точные резуль-таты, чем методы статистики. Выделение производится путём прогнозиро-вания фронта пика, скрытого из-за суперпозиции с соседним, на основании открытой части пика.

Целью данной работы является программная реализация искусст-венной нейросети, которая обеспечит разделение пиков на хроматограмме.

2 Теоретическое обоснование

Поскольку искусственные нейронные сети позволяют аппроксими-ровать функции, прогнозировать – их можно прекрасно использовать для решения настоящей проблемы: разделение хроматографических пиков (см. приложение А).

Хроматографические пики могут быть как симметричными так и не симметричными и являются искажёнными Гауссовыми функционалами. И если пик описывается некоторой функцией от времени f(t), то на хромато-граф поступает суперпозиция пиков, поэтому функция от времени отобра-жаемая на его экране есть как сумма функций всех пиков:

Поэтому образы пиков, которые присутствуют на хроматограмме, могут быть сильно искажены, из-за наложений, а в некоторых случаях скрыты другими.

Открытые части не сильно искажённых пиков позволяют спрогно-зировать скрытую, и посчитать площадь под пиком.

Метод прогнозирования заключается в следующем:

1.)На входы нейронной сети поступают отчёты, причём желательно нормированные:

-среднее значение выборки временных значений примеров-входов,

-их исправленная дисперсия.

2.)На выходы нейронной сети подаются соответствующие значения функции описывающей пик. Их необходимо преобразовать, чтобы они не превосходили 1, для чего нужно делить на максимум выборки.

3.)После обучения сети до не обходимого уровня ошибки необхо-димо подать на вход значение времени, при котором требуется узнать зна-чение функции. Полученное значение при прямом функционировании и есть прогнозируемая точка. Она же будет добавлена в обучающую выбор-ку. И снова провести выше описанные действия. Прогнозирование произ-водится до тех пор, пока это необходимо.

Целесообразно параллельно проводить прогнозирование смежного пика. Прогнозируемая точка смежного фронта соседнего пика может быть получена следующим способом:

1.) Подать параллельной сети примеры соседнего пика.

2.) Подать на дополнительный вход разность между значением су-перпозиции в этой точке и полученным значением в этой точке у соседнего пика.

3 Схема алгоритма разделения пиков

4 Методика обучения нейросети

Метод обучения нейросети на основании алгоритма обратного рас-пространения представляет собой - распространение сигналов ошибки от выходов нейросети к ее входам, в направлении, обратном прямому распро-странению сигналов в обычном режиме работы.

Ниже представлен методика обучения НС с помощью процедуры обратного распространения строится так:

1. Подать на входы сети один из возможных образов и в режиме обычного функционирования НС, когда сигналы распространяются от входов к выходам, рассчитать значения последних. Ниже представлена формула расчёта взвешенной суммы весов:

(1)

где M – число нейронов в слое n-1 с учетом нейрона с постоянным выходным состоянием +1, задающего смещение; yi(n-1)=xij(n) – i-ый вход нейрона j слоя n.

yj(n) = f(sj(n)), где – сигмоид (2)

yq(0)=Iq,

где Iq – q-ая компонента вектора входного образа.

2. Рассчитать (N) для выходного слоя по формуле:

(3)

Рассчитать изменения весов w( N) слоя N по формуле:

(4)

3. Рассчитать для всех остальных слоев, n=N-1,...1

1)( n) по формуле:

(5)

2) w( n) по формуле(15)

4. Скорректировать все веса в НС

(6)

5. Если ошибка сети существенна, перейти на шаг 1. В противном случае конец.

5 Схема алгоритма обучения

6 Заключение

В ходе настоящей работы была разработана и реализована про-граммно искусственная нейронная сеть. Программа написана в среде Bor-land Delphi 3. Она представляет собой гибкую систему, в которой задаётся количество скрытых слоёв и количество нейронов в каждом из них. Коли-чество входов и выходов одинаково и равно единице. Над программой был проведён длительный эксперимент, который продолжался около 10-ти ча-сов. За это время нейронная сеть, реализованная в ней, обучалась по пе-реднему фронту пика(см. приложение Г). Нейронная сеть состояла из 4-х слоёв по 50 нейронов, и выходного слоя с одним нейроном. Сеть обучи-лась до уровня ошибки – 0,0016, за число итераций – 95649.

Список использованных источников

1. С.Короткий. Нейронные сети: алгоритм обратного распростране-ния. М.:Мир-1997.

2. Ф.Блум, А.Лейзерсон, Л.Хофстедтер, Мозг, разум и поведение, М., Мир, 1988.

3. Постановка и возможные пути решения задачи обучения нейрон-ных сетей. Сервер: Neural Bench™.

4. А.В. Буцев Локальная аппроксимация на искусственных нейрон-ных сетях. М.:АиТ.-1997-№4-стр.127-136.

5. К.Дж. Анил, Н. Мао. Введение в искусственные нейронные се-ти.М.: Откр. сист. –1998-№9-стр.4-15.

6. А. Балахонцев. Азбука нейронных сестей: методы обучения.М.: Радиолюбитель.-1998.№9-стр.2-9.

Приложение А

Пример суперпозиции пиков и их истинностных фронтов

Приложение Б

Схема сети.

Приложение Г

Результаты обучения

Рис. 1. Результат работы программы

Рис. 2. График зависимости ошибки обучения

от номера итерации




Copyright © 2005—2007 «Mark5»