Почему «искусственного интеллекта» не существует?

Да. Это так. В полном понимании слова «интеллект» — все существующие системы искусственного интеллекта таковыми не являются (поэтому в заглавии темы я взял термин в кавычки).

Давайте посмотрим, как работают системы псевдо-ИИ сегодня.
В курсе технических ВУЗов с программисткой направленностью еще в 90-е годы у нас (и гораздо раньше «у них») была такая дисциплина.
В основе всех таких систем лежит парадигма «обучения».

Что это такое?

Представим себе некоторый объект, на вход которому подают набор данных, на выходе получается некий результат.
В качестве иллюстрации на первых лекциях нам привели простой пример – подаем на вход данные о больном, на выходе видим вероятность выживания.
Вопрос. Кому отдать предпочтение на лечение?
Естественно, тому, у кого выживаемость выше. Как ни жестоко, но так есть. Тратить ресурсы медиков на заведомо умирающего – глупо.
Окей. Здесь все просто и понятно.

Но возникает один вопрос. А как «обучали» данный объект? Естественно, подавали на вход данные разных больных, на выход давали результат, объект обучался.

Если что – именно так работают нейронные сети. Как ключевой элемент сегодняшних систем ИИ (точнее, псевдо-ИИ).
Что же не так?

«Не так» заключается в простом понимании простых вещей. Современный псевдо-ИИ – это всего лишь два (!) обычных раздела математики, называющиеся «математическая статистика» и «теория вероятностей». Системы ИИ подчиняются алгоритмическим правилам, при этом основное правило таких алгоритмов – «ветвление» — т.е. выбор из возможных ситуаций.
И этот выбор обусловлен исключительно накопленными статистическими данными. Чем больше исходных данных с вполне детерминированным результатом (детерминированный – значит такой, что иного выбора нет), тем точнее результат.

В далекие 80-е и 90-е выходили разные книги. И в них, уже тогда, показывали проблемы статистического подхода к моделированию нейронных связей. Ибо на самом деле человеческий интеллект немного шире. Мягко говоря «немного». Простой пример был приведен на основе систем распознавания речи. Есть фраза «Мальчик ест мороженое». В принципе, система может услышать «альчик ест мороженое». Первую букву система не услышала. Система попробует подобрать первую букву. Вот тут и понимается разница между интеллектом и статистикой. Что сделает статистика? Ну, в принципе, только 2 слова подходят на право быть первым – «Мальчик» и «Пальчик». Хорошо. В принципе, статистическая система сумеет понять, что запросы, в которых одновременно есть уже распознанные слова «ест», «мороженое» — это явно не пальчик. А если Нальчик? А если вообще – слово из другого языка? Вот человек реально сможет понять, о чем идет речь. А вот система ИИ столкнется с выбором – какое из «ветвлений» выбрать? Мальчик, Нальчик, пальчик?

Нет. Интеллект работает немного иначе. Если что – данный пример взят из книги издания аж 72-го года. Человеческий интеллект прекрасно понимает, что ни пальчик, ни Нальчик не могут есть мороженое. Для человеческого интеллекта за распознанным словом стоит вполне понятное явление – кто-то ест мороженое. Ест – потребляет в пищу. Мороженое – лакомство. Значит, Мальчик ест мороженое.

Современные системы ИИ встают в ступор и выдают лишь статистически верный результат.

С погрешностью на вероятность принятия точного решения.
Можете погуглить, как системы распознавания пешеходов промахнулись, ибо статистически более вероятный результат, что пешехода не может быть не на переходе. А он – был.

А почему? А потому что обучение было таким. Мусор на входе = мусор на выходе.

Интеллект умеет многое. Прогнозировать, созидать, творить, выходить за рамки УЖЕ существующих знаний, создавая новые.
Тест Тьюринга есть и будет оставаться непроходимым для любых современных систем ИИ.

Напомню его суть. Вы должны определить, перед вами машина, или человек. За закрытой стенкой. Вы общаетесь на вашем языке и задаете любые вопросы. Получая ответы, вы должны определить, с той стороны машина или человек?
И вот поверьте. Никакая система современного ИИ такой тест пройти не сможет. Ибо вы сможете сгенерировать вопрос, который система просто не поймет в силу того, что работает по АЛГОРИТМАМ, пусть «нечетким», но алгоритмам.
Интеллект – не алгоритмичен. В этом его суть. Искусственный интеллект «а-ля» Скайнет – всего лишь фантазия.

В этой фразе ключ к пониманию – интеллект (наш, только наш) – умеет фантазировать. Выходить за рамки ОПЫТА. Формируя новый опыт. И новые знания.

Современные системы ИИ сносно справляются с распознаванием УЖЕ СУЩЕСТВУЮЩИХ вещей, но генерировать новые – увы, но не могут.
Так что… Я бы не стал уповать на всякие «ИИ»-водители и т.д. Предусмотреть все возможные ситуации – нереально. Грубо говоря – моделирование системы возможно лишь тогда, когда модель – проще моделируемой системы. На то и модель.

Если система такова, что ее модель – сопоставима с самим оригиналом – то бесполезно моделировать.

Мы получим саму систему.

В современном мире возможны лишь «помощники» — но основное решение всегда останется за человеком. Так же как и кого спасать. Может, у человека мало шансов выжить, но его спасение – возможно, стоит того, чтобы побороться.
Азимов, выводя 3 закона роботехники (не робототехники, а роботехники) тоже столкнулся с этой проблемой, в итоге вывел 4-й (точнее, нулевой – «робот не может причинить вред Человечеству»).

Комментирование и размещение ссылок запрещено.

Обсуждение закрыто.

Top