Next: Применение метода нейронных сетей
Up: Метод нейронных сетей
Previous: Выбор оптимальных кинематических переменных
  Contents
Следующим важным этапом применения нейронных сетей, является проверка тренировки.
Цель тренировки нейронной сети - заставить ее максимально точно распознавать
разные классы событий по заданным характеристикам (входному вектору).
Но начиная с некоторого момента тренировки сеть начинает распознавать
не заданные классы событий, а сами тренировочные события; при этом
ухудшается распознавание других событий из того же класса.
Такой эффект называют overfiting. Для предотвращения этого эффекта
образцы событий делятся на две части: на первой части (тренировочный
образец) проходит тренировка сети, на второй (тестовый образец)
сеть тестируется после каждого цикла тренировки.
На рисунке 4.6, показано изменение
функции ошибки (4.5) с каждым циклом тренировки для сети, разделяющей
s-канальный сигнальный процесс и QCD фон. Приведены тренировочная
и тестовая кривая. На шаге, где тестовая кривая систематически перестает
идти вниз, полученные коэффициенты сети записываются и сеть готова
для дальнейшего использования.
Figure 4.6:
Пример предотвращения перетренировки (overfiting) сети за счет разделения
образцов событий на тренировочную и тестовую части. Показано изменение
функции ошибки сети () с каждым циклом тренировки для тренировочного
и тестового образцов и точка остановки, в которой сохранялись параметры
сети для дальнейшего анализа.
Сеть для разделения сигнальных событий процесса и QCD
фона.
7cm6cmtune.ps
|
В нашем анализе возможен дополнительный этап проверки:
использование абсолютно независимого образца событий
и проверка отклика готовой сети на созданном методом Монте-Карло образце
событий и на экспериментальных данных. Для этого берется взвешенная сумма откликов
сети от всех смоделированных процессов и сравнивается с откликом сети на
образце данных, полученных на DØ детекторе. При этом проверяется правильность
моделирования ожидаемых событий и отсутствие эффекта "overfiting"
при тренировке сети.