Организация ЭВМ и систем. Однопроцессорные ЭВМ

         входные двери с терморазрывом

Нейрокомпьютерные системы

На заре вычислительной техники (конец 1940-х начало 1950-х годов) существовало два подхода к разработке машин с "интеллектуальным" поведением.
Первый из подходов заключался в: 1) представлении знаний в виде множества атомных семантических объектов или символов; 2) манипуляциях с этим множеством символов по формальным алгоритмическим правилам. Эта символьно-алгоритмическая парадигма является основой так называемого традиционного искусственного интеллекта.
Одновременно с этим существовало другое направление исследований, использующее машины, архитектура которых моделировала мозг животных и обучалась под воздействием окружающей среды, а не программировалась каким-либо языком высокого уровня. Работы по так называемым нейронным сетям активно велись в 1960-х годах, затем утратили популярность в 1970-х и начале 1980-х, но во второй половине 1980-х возникла новая волна интереса к ним.

История и перспективы развития нейрокомпьютеров
Нейронные сети - новая модель параллельных и распределенных вычислений, один из основных архитектурных принципов построения машин 6-го поколения. В основу искусственных нейросетей положены следующие черты живых нейросетей, позволяющие им справляться с нерегулярными задачами: простой обрабатывающий элемент - нейрон;участие огромного числа нейронов в обработке информации;каждый нейрон связан с большим числом других (глобальные связи);изменяющиеся по весу связи между нейронами;массовый параллелизм обработки информации.

Символьная парадигма
Коннекционистская парадигма
Ранние годы
Возрождение нейронных сетей
Возрождение нейронных сетей - 2
Введение
История и перспективы развития нейрокомпьютеров
Символьная парадигма
Коннекционистская парадигма
Ранние годы

Персептрон
Нейрон сигмоидального типа имеет структуру, подобную модели МакКаллока-Питса, с той разницей, что функция активации является непрерывной и может быть выражена в виде сигмоидальной униполярной или биполярной функции. Униполярная функция, как правило, представляется формулой

Сигмоидальный нейрон
Нейрон типа "адалайн"
Паде-нейрон
Нейрон с квадратичным сумматором
Сигма-Пи нейроны
Модель нейрона Хебба
Стохастическая модель нейрона
Нейроны типа WTA
Кубические модели нейронов
Запись активации в замкнутой форме

Линейное разделение классов
Линейные решающие правила, построенные на основании разделения центров масс, могут ошибаться на примерах из обучающей выборки даже в тех случаях, когда существует и безошибочное линейное разделение. Однако метод центров масс полезен как средство определения начального значения вектора весов для алгоритма обучения персептрона.

Алгоритм обучения персептрона по примерам
Обучение по всему задачнику
Промежуточный вариант: обучение по страницам
Геометрическая интерпретация разделения классов
Настройка весового вектора
Линейное разделение классов
Алгоритм обучения персептрона
Обучение по всему задачнику
Промежуточный вариант: обучение по страницам
Интерпретация линейного разделения классов

Метод максимума правдоподобия
Рассмотрим задачу разделения двух классов, с каждым из которых связано вероятностное распределение в пространстве векторов

Нейрофизиологическая аналогия
Реализация булевых функций нейронными сетями
Выделение выпуклых областей
Выделение невыпуклых областей
Метод максимума правдоподобия
Нейрофизиологическая аналогия
Реализация булевых функций нейронными сетями
Выделение выпуклых областей
Выделение невыпуклых областей
Выделение невыпуклых областей - 2

Виды сетей
Число нейронов в каждом слое может быть любым и никак заранее не связано с количеством нейронов в других слоях. Стандартный способ подачи входных сигналов: все нейроны первого слоя получают каждый входной сигнал. Наибольшее распространение получили трехслойные сети, в которых каждый слой имеет свое наименование: первый - входной, второй - скрытый, третий - выходной.

Функционирование сетей
Настройка нейронных сетей для решения задач
Предобработка данных
Интерпретация ответов сети
Оценка способности сети решить задачу
Константа Липшица сигмоидальной сети
Виды сетей
Виды сетей - 2
Функционирование сетей
Настройка нейронных сетей для решения задач

Алгоритм обратного распространения ошибки
Основу алгоритма обратного распространения ошибки составляет целевая функция, формулируемая, как правило, в виде квадратичной суммы разностей между фактическими и ожидаемыми значениями выходных сигналов.

Одномерная оптимизация
Одномерная оптимизация - 2
Методы инициализации весов
Методы инициализации весов - 2
Алгоритм обратного распространения ошибки
Алгоритм обратного распространения ошибки - 2
Алгоритм обратного распространения ошибки - 3
Одномерная оптимизация
Одномерная оптимизация - 2
Методы инициализации весов

Универсальный путь обучения
Возможность параллельного вычисления наиболее трудоемких этапов алгоритма, и желательно нейронной сетью.Обученный нейрокомпьютер должен с приемлемой точностью решать все тестовые задачи. Поэтому задача обучения становится многокритериальной задачей оптимизации: нужно найти точку общего минимума большого числа функций. Обучение нейрокомпьютера исходит из гипотезы о существовании этой точки.Обученный нейрокомпьютер должен иметь возможность приобретать новые навыки без утраты старых.

Учет ограничений при обучении
Выбор направления минимизации
Партан-методы
Одношаговый квазиньютоновский метод
Универсальный путь обучения
Особенности задачи оптимизации при обучении
Учет ограничений при обучении
Выбор направления минимизации
Партан-методы
Сопряженные градиенты

Элементы глобальной оптимизации
Все представленные ранее методы обучения нейронных сетей являются локальными. Они ведут к одному из локальных минимумов целевой функции, лежащему в окрестности точки начала обучения. Только в ситуации, когда значение глобального минимума известно, удается оценить, находится ли найденный локальный минимум в достаточной близости от искомого решения. Если локальное решение признается неудовлетворительным, следует повторить процесс обучения при других начальных значениях весов и с другими управляющими параметрами.

Алгоритмы имитации отжига
Генетические алгоритмы
Генетические алгоритмы - 2
Метод виртуальных частиц
Метод виртуальных частиц - 2
Четыре типа устойчивости
Элементы глобальной оптимизации
Алгоритмы имитации отжига
Генетические алгоритмы
Генетические алгоритмы - 2

Математические основы радиальных сетей
Математическую основу функционирования радиальных сетей составляет теорема Т. Ковера о распознаваемости образов, в соответствии с которой нелинейные проекции образов в некоторое многомерное пространство могут быть линейно разделены с большей вероятностью, чем при их проекции в пространство с меньшей размерностью.

Математические основы радиальных сетей
Математические основы радиальных сетей - 2
Радиальная нейронная сеть
Радиальная нейронная сеть - 2
Математические основы радиальных сетей
Математические основы радиальных сетей - 2
Радиальная нейронная сеть
Радиальная нейронная сеть - 2

Автоассоциативная сеть Хопфилда
Отдельную группу нейронных сетей составляют сети с обратной связью между различными слоями нейронов. Это так называемые рекуррентные сети. Их общая черта состоит в передаче сигналов с выходного либо скрытого слоя на входной слой. Благодаря обратной связи при подаче сигнала на входы сети, в ней возникает переходный процесс, который завершается формированием нового устойчивого состояния, отличающегося в общем случае от предыдущего.

Автоассоциативная сеть Хопфилда
Обучение сети Хопфилда по правилу Хебба
Обучение сети Хопфилда методом проекций
Сеть Хемминга
Сеть Хемминга - 2
Двунаправленная ассоциативная память
Введение
Автоассоциативная сеть Хопфилда
Обучение сети Хопфилда по правилу Хебба
Обучение сети Хопфилда методом проекций

Решение задачи коммивояжера сетью Хопфилда
Моделирование работы сети Хопфилда показало, что лучшее по качеству решение дает сеть, нейроны которой имеют сигмовидную характеристику, а сеть, в которой нейроны имеют ступенчатые переходы, приходила к финальным состояниям, соответствующим маршрутам немного лучшим, чем случайные. Многочисленные исследования показывают, что качество решения задачи минимизации функции энергии (2) существенно зависит от выбора производной сигмовидной униполярной функции активации нейрона в окрестности нуля.

Машина Больцмана
Функция консенсуса
Максимизация консенсуса
Синхронное и асинхронное - машина Больцмана
Решение задачи коммивояжера машиной Больцмана
Решение задачи коммивояжера сетью Хопфилда
Машина Больцмана
Функция консенсуса
Максимизация консенсуса
Функционирование машины Больцмана

Персептронная сеть с обратной связью
Многослойные рекуррентные сети представляют собой развитие однонаправленных сетей персептронного типа за счет добавления в них соответствующих обратных связей. Обратная связь может исходить либо из выходного, либо из скрытого слоя нейронов. В каждом контуре такой связи присутствует элемент единичной задержки, благодаря которому поток сигналов может считаться однонаправленным (выходной сигнал предыдущего временного цикла рассматривается как априори заданный, который просто увеличивает размерность входного вектора сети).

Персептронная сеть с обратной связью
Рекуррентная сеть Эльмана
Рекуррентная сеть Эльмана - 2
Сеть RTRN

Классификация без учителя
Простейшая мера близости объектов - квадрат евклидова расстояния между векторами значений их признаков (чем меньше расстояние, тем ближе объекты). Соответствующее определение признаков типичного объекта - среднее арифметическое значение признаков по выборке, представляющей класс. Другая мера близости, возникающая при обработке сигналов, изображений и т.п. - квадрат коэффициента корреляции (чем он больше, тем ближе объекты).

Метод динамических ядер в классификации
Алгоритмы обучения сетей с самоорганизацией
Алгоритмы обучения сетей с самоорганизацией - 2
Алгоритм Кохонена
Алгоритм Кохонена - 2
Применение сетей с самоорганизацией
Компрессия данных
Прогнозирование нагрузок энергетической системы
Классификация без учителя
Метод динамических ядер

Адаптивная резонансная теория (АРТ)
Серьезная проблема для нейронных сетей - правильное соотношение стабильности и пластичности при запоминании образов. Существуют наборы эталонов (даже состоящие всего из 4-х векторов), которые при циклическом предъявлении в обучении дают никогда не сходящиеся наборы параметров сети. Предъявление всего одного нового образа в обучающем множестве часто приводит к долгому переобучению. Если сеть работает в реальном времени, например, обрабатывает сенсорную информацию, то обучающее множество может все время меняться.

Сеть АРТ-1
Архитектура и работа
Слой сравнения
Слой распознавания
Работа сети АРТ
Работа сети АРТ - 2
Необходимость поиска
Положительные качества и недостатки АРТ

Интеллектуальные информационные системы в условиях неопределенности и риска
С помощью символьной обработки информации не удается решить прикладные задачи многих предметных областей, если для них невозможно получить полную информацию и если их определение недостаточно полно. Такая ситуация характерна для: сложных технических систем; систем экономического планирования; социальных систем большой размерности; систем принятия решений и т.п.

Нечеткие множества
Лингвистические переменные
Нечеткие правила вывода
Системы нечеткого вывода Мамдани-Заде
Системы нечеткого вывода Мамдани-Заде - 2
Фазификатор
Дефазификатор
Универсальный аппроксиматор
Нечеткие сети TSK (Такаги-Сугено-Канга)
Гибридный алгоритм обучения нечетких сетей

Значимость параметров и сигналов. Сокращение описания (контрастирование) сетей
Сокращение множества параметров и входных сигналов обученной нейронной сети преследует цели: упрощение специализированных устройств;сокращение объема используемой памяти и увеличение быстродействия;удешевление сбора данных;обеспечение (или облегчение) интерпретации результатов обработки данных. Существует два способа сокращения (редукции) описания: редукция "снизу вверх" - постепенное удаление параметров от наименее значимых к более значимым;редукция "сверху вниз" - выделение наиболее значимых параметров и постепенное дополнение их менее значимыми.

Определение значимости параметров
Изменение выходных сигналов системы
Сокращение числа выходов
Показатели значимости для нейрона
Показатели значимости для персептрона
Сокращение описания "сверху вниз"
Рекурсивное контрастирование и бинаризация
Значимость параметров и сигналов
Функции оценки
Определение значимости параметров

Электронная реализация нейронных сетей
При решении плохо формализованных задач моделирования, прогнозирования и распознавания, которые обычно сводятся к конструированию областей многомерного пространства, достаточно малоразрядных представлений входов и весов и операций с фиксированной точкой. Это обусловлено тем, что входные сигналы нормируются и количество их значений невелико.При решении хорошо формализованных задач (например, задач комбинаторной оптимизации) существенна точность вычислений, что требует полноразрядных представлений чисел и операций с плавающей точкой.

Электронная реализация нейронных сетей
Нейрочипы
Нейропроцессор NM6403
Оптическая реализация нейронных сетей
Векторно-матричные умножители
Голографические корреляторы

Организация ЭВМ и систем. Однопроцессорные ЭВМ. Часть 1

С момента своего возникновения человек старался облегчить свой труд с помощью различных приспособлений. В начале это касалось только физического труда, а затем также и умственного. В результате уже в XVII веке начали появляться первые механические устройства, позволяющие выполнять некоторые арифметические действия над числами. Они предназначались, в основном, для коммерческих расчетов и составления навигационных таблиц.
Совершенствование технологии обработки металлов, а затем и появление первых электромеханических устройств типа электромагнитных реле привело к интенсивному совершенствованию вычислительных устройств. Кроме того, совершенствование вычислительных устройств было обусловлено все возрастающим объемом информации, требующей переработки.

Два класса ЭВМ
Два класса ЭВМ - 2
Немного истории
Немного истории - 2
Немного истории - 3
Принципы действия ЭВМ
Принципы действия ЭВМ - 2
Принципы действия ЭВМ - 3
Принципы действия ЭВМ - 4
Понятие о программном обеспечении ЭВМ

Организация ЭВМ и систем. Однопроцессорные ЭВМ. Часть 2

Памятью ЭВМ называют совокупность устройств, служащих для запоминания, хранения и выдачи информации. Отдельные устройства, входящие в эту совокупность, называются запоминающими устройствами или памятями того или иного типа. В настоящее время и ЗУ, и память стали практически синонимами.
Производительность ЭВМ и ее возможности в большой степени зависят от характеристик ЗУ, причем в любой ЭВМ общего назначения используют несколько типов ЗУ.

Построение внутренней памяти
Построение внутренней памяти - 2
Построение внутренней памяти - 3
Построение внутренней памяти - 4
Структура памяти ЭВМ
Структура памяти ЭВМ - 2
Структура памяти эвм - 3
Структура памяти ЭВМ - 4
Способы организации памяти
Адресная память

Организация ЭВМ и систем. Однопроцессорные ЭВМ. Часть 3

Вводом/выводом (ВВ) называют передачу данных между ядром ЭВМ, включающим в себя процессор и ОП, и периферийными устройствами (ПУ).
Система ВВ – это единственное средство общения ЭВМ с внешним миром. Ее возможности в серийных ЭВМ представляют собой один из важнейших параметров, определяющих выбор машины для конкретного применения.
Несмотря на разнообразие ПУ, в настоящее время разработано несколько стандартных способов их подключения к ЭВМ и программирования ВВ.

Принципы ввода / вывода в микро ЭВМ
Общие принципы организации ВВ
Общие принципы организации ВВ - 2
Программный ВВ
ВВ по прерываниям
ВВ по прерываниям - 2
ВВ по прерываниям - 3
ВВ в режиме ПДП
ПДП с захватом цикла
ПДП с захватом цикла - 2

Организация ЭВМ и систем. Однопроцессорные ЭВМ. Часть 4

Управляющие данные от процессора называются также командными словами или приказами. Они инициируют действия, не связанные непосредственно с передачей данных (запуск устройства, запрещение прерываний, установка режимов и т.д.).
Управляющие данные от ПУ называются словами состояния. Они содержат информацию об определенных признаках (о готовности устройства к передаче данных, о наличии ошибок при обмене и т.д.). Состояние обычно представляется в декодированной форме – один бит для каждого признака.

Представление информации в ЭВМ
Принципы построения процессора
Принципы построения внутренней памяти
Структура и форматы машинных команд
Структура и форматы машинных команд - 2
Принципы организации систем прерывания
Простейшая микроЭ ВМ
Ввод/вывод информации в микро ЭВМ
Ввод/вывод информации в микро ЭВМ - 2
Некоторые вопросы развития архитектуры ЭВМ

Организация ЭВМ и систем. Однопроцессорные ЭВМ. Часть 5

Функции центральной микроЭВМ не определены. Известно только, что в процессе обработки программы центральная микроЭВМ периодически обращается за обслуживанием к периферийной микроЭВМ. Этот период обращения определяется не каким-либо таймером, а потребностями задач, решаемых центральной микроЭВМ.

Генератор звуковой последовательности
Генератор звуковой последовательности - 2
Контроль срабатывания аварийных датчиков
Контроль срабатывания аварийных датчиков - 2
Система сбора аналоговой информации
Система сбора аналоговой информации - 2
Система формирования аналоговых сигналов
Система формирования аналоговых сигналов - 2
Система отображения - "Бегущая строка"
Требования к содержанию курсового проекта

Моделирование взаимосвязей между сущностями
Инглвуд Линда - Искатель Приключений
Иванов Николай - Операцию Шторм Начать Раньше
Основы термоядерной отладки с linice
Cамоучитель по Java
Есть такой язык - Java
Программирование на Java
Java
Программирование на Java.Подробное руководство
Java программирование
Программирование на Java
Пишем и читаем на Java
Java 2 Micro Edition (J2ME)
Спецификация Java Server Pages 1.2
Программирование на языке Java
Основы программирования на JavaScript
Доступ к базам данных из Javaпрограмм и проблемы русификации
Домашний электрик
Язык и архитектура Java
Java язык программирования