Размер шрифта
-
+

Искусственный интеллект и Большие Данные. Без хайпа и наукообразия - стр. 5

В 1972 году Теуво Кохонен и Джеймс Андерсон независимо друг от друга предлагают новый тип нейронных сетей.

В 1973 Лофти Заде предложил теорию мягких вычислений, а также теорию вербальных вычислений и представлений.

В начале-середине 1970-х гг. в Стенфордском университете разработана медицинская экспертная система MYCIN, предназначенная для диагностирования бактерий, вызывающих бактериемию и менингит, а также предлагавшая рекомендации о необходимом составе и количестве антибиотиков для их лечения в зависимости от веса больного. Особенностью системы была реализация методов формирования выводов и принятия решений в условиях неопределённости на базе ненадежной и недостаточной информации. Процесс разработки занял около 6 лет, а базовым инструментом был язык программирования Lisp.

В 1974 году Пол Вербос и Александр Галушкин независимо разрабатывают алгоритм обратного распространения ошибки для обучения многослойных перцептронов.

В 1975 Марвин Минский в работе «Фреймы для представления знаний» изложил теорию фреймов, которая часто используется как механизм для представления знаний в компьютерных системах.

В 1977 году Эбрахим Мамдани разработал алгоритмы применения нечёткой логики в приближенном рассуждении на основе методов лингвистического синтеза.

В начале 1970-х – середине 1980-х начинают массово создаваться коммерческие экспертные систем как инструмент поддержки принятия решений в самых разных сферах человеческой деятельности.

В 1974—1983 гг. Стенфордским исследовательским институтом разработана экспертная система PROSPECTOR, предназначенная для консультирования геологов по вопросам оценки геологических ресурсов региона и конкретной местности на предмет возможности наличия полезных ископаемых, а также выработки рекомендаций относительно выбора мест для бурения.

1980-е и 1990-е годы характеризовались охлаждением интереса к исследованиям в области ИИ из-за резкого несоответствия возможностей реальных разработок и возлагаемыми на них при начале проектирования надеждами. Оказалось, что на существующем уровне понимания процессов интеллектуальной деятельности адекватно воссоздать человеческий интеллект невозможно.

В 1982 наметилось некоторое возрождение интереса к нейронным сетям. Теуво Кохонен предложил модели нейронной сетей, способных обучаться без учителя, решать задачи кластеризации и визуализации данных (самоорганизующаяся карта Кохонена) и некоторые другие задачи анализа данных.

В 1986 несколькими исследователями независимо друг от друга существенно развит метод обратного распространения ошибки, что в последствии стало основой возрождения массового интереса исследователей ИИ к обучаемым нейронным сетям.

В 1986 году Дэвид Румельхарт и Джеймс Макклеланд опубликовали фундаментальную работу «Параллельно распределенная обработка: исследование микроструктуры познания», которая до сих пор является настольной книгой исследователей в области когнитологии.

В 1990-е годы продолжается исследование возможностей применения эволюционных алгоритмов в ИИ (Джон Коза: Генетическое программирование: компьютерное программирование средствами естественного отбора, 1992; Лоуренс Фогель: Эволюционное вычисление – направление новой философии в машинном интеллекте, 1995).

В 1990-х годах продолжает развиваться теория нечётких множеств. Одним из основных направлений развития становится их интеграция с нейронными сетями (Барт Коско: Нейронные сети и нечеткие системы, 1992; Нечёткое мышление, 1993; Нечеткая инженерия, 1996; Лофти Заде: Нечёткие множества, нейронные сети и мягкие вычисления, 1994; Вычисления при помощи слов, 1996).

Страница 5