Размер шрифта
-
+

Алгоритмы рядом: Что нужно знать об ИИ каждому - стр. 2

Начнем с 1950-х годов, когда было положено начало концептуальному формированию ИИ. Достаточно вспомнить известный тест Тьюринга, предложенный Аланом Тьюрингом в 1950 году. Он ставил вопрос, может ли машина мыслить. Тест заключался в том, чтобы оценить, сможет ли машина вести разговор с человеком так, чтобы тот не смог определить, с кем говорит. Этот эксперимент стал не только философским, но и техническим эталоном, который толкнул науку вперед. Именно в этот период начались разработки первых программ, способных решать логические задачи и даже играть в шахматы.

В 1960-х годах на сцену вышли первые нейросети, которые пытались имитировать работу человеческого мозга. Это время можно назвать эдемом для энтузиастов: создавались первые системы, которые могли обучаться на основе данных. И хотя их возможности были далеки от настоящего интеллекта, именно тогда появились термины, которые мы сегодня нередко слышим, такие как «машинное обучение». Например, в 1965 году Эдвард Файгенбаум разработал систему DENDRAL, предназначенную для идентификации химических соединений – это стало первым шагом к применению ИИ в научных исследованиях.

Однако не всё шло гладко. В 1970-х годах интерес к ИИ начал угасать. Многие исследователи столкнулись с физическими и концептуальными ограничениями: компьютеры были слишком медлительными, а теории – слишком амбициозными для реализации. Период, известный как «Зима ИИ», пришел, когда финансирование программ сокращалось, а обещания быстрых прорывов не исполнились. В этом контексте стоит упомянуть работы с экспертными системами, которые были популярны в 1980-х годах. Они пытались имитировать человеческий опыт в узких областях, таких как диагностика заболеваний, но их потребность в знаниях и сложности ограничивали успешность.

В 1990-х годах началась новая волна интереса к ИИ, во многом обусловленная увеличением вычислительных мощностей и появлением больших объемов данных. Словно снова зажглись огоньки надежды, и мы стали свидетелями роста интереса к статистическому машинному обучению. Например, в 1997 году программа Deep Blue от IBM обыграла чемпиона мира по шахматам Гарри Каспарова. Это событие стало знаковым, показав, что машины могут конкурировать в областях, традиционно считающихся сферами человеческого интуитивного гения.

Постепенно, в 2000-х годах, вектор развития ИИ сместился на обработку больших данных и развитие алгоритмов, способных обучаться на этих данных. Примерно в это же время началось становление одного из важнейших направлений – глубокого обучения. С помощью нейросетей с множеством слоев мы увидели прорывы в таких задачах, как распознавание речи, обработка изображений и даже машинный перевод. На основе архитектуры, предложенной в 2012 году, когда команда из Университета Торонто победила в конкурсе ImageNet, компании начали массово внедрять нейросети в свои продукты. Например, алгоритмы распознавания изображений стали основой современных технологий, используемых в Facebook* социальная сеть, признана экстремистской организацией и запрещена на территории РФ и Google Photos.

Настоящим толчком для широкого внедрения ИИ стали облачные вычисления. В 2010-х годах сервисы, такие как AWS от Amazon и Google Cloud, сделали ресурсы доступными для малых и средних компаний. Это дало им возможность разрабатывать и тестировать ИИ-решения без необходимости инвестировать в дорогостоящие вычислительные фермы. Теперь любой предприниматель с доступом к интернету может начать эксперименты с алгоритмами машинного обучения и создавать прототипы.

Страница 2