Why general artificial intelligence will not be re

Перейти к содержимому

-----

Событие: Why general artificial intelligence will not be re

в Конференции, выставки и семинары
Кем добавлено Vadim Sharov , 18 Июл 2020


Время проведения 23 Июл 2020 (Событие на один день)

View Discussion Topic    Vadim Sharov



КРУГЛЫЙ СТОЛ О НЕДОСТИЖИМОСТИ СИЛЬНОГО ИИ

ИНТРОДУКЦИЯ

В рамках животворящей деятельности сообщества «AGI in Russian», Антон Германович поделился ссылкой на статью

Ragnar Fjelland «Why general artificial intelligence will not be realized»

https://www.nature.c...1599-020-0494-4

и высказал идею проведения семинара по этому поводу. Я подготовил небольшой материал в этой связи, который предлагаю вашему вниманию. Материал предназначен для разогрева публики и структуризации области, поскольку она сложна и огромна. Семинар планируется на ближайший четверг, 23 июля, 1800 московского времени:

https://meet.google.com/fhr-xhhc-opg

 

В следующем абзаце я предлагаю свой краткий пересказ этой довольно объемной статьи, а затем свои размышления в этой связи. Если что-то вы считаете, что что-то не донес или перенес – поправляйте. И вообще прошу вас высказываться, спрашивать, комментировать, чем больше мы разомнем эту проблематику, тем интереснее будет ее обсудить face to face на круглом столе.

КРАТКИЙ И ВОЛЬНЫЙ ПЕРЕСКАЗ ИСХОДНОЙ СТАТЬИ

Если не лукавить, то цель разработки искусственного интеллекта – достижение подобия человеческому. Такой интеллект можно называть сильным (AGI) в противопоставление слабому узкому «интеллекту» (ANI), решающему отдельные задачи. Это разные интеллекты. Много лет назад Дрейфус предложил систему критики исследований и создания AGI, которую можно проинтерпретировать недостижимостями: человеческое мышление не алгоритмическое, компьютер не имеет деятельности, многие элементы человеческого интеллекта невыразимы (tacit).

Успехи ANI последних лет, особенно в области искусственных нейросетей, изменяют наши представления о машинном интеллекте, где появляются два новых момента: искусственная нейросеть не требует явных инструкций и обучается сама, а новые технологии изменяют человеческие инструменты мышления, адаптируя их к компьютерным. И возникает вопрос: актуальны ли аргументы Дрейфуса и не является ли высокая оценка новых подходов простой недооценкой людей?

Одним из важных вопросов, которые возникают в контексте такого обсуждения – это вопрос о пропозициональности знания, что такое знание – умение или формула? Нетрудно показать, что человек знает больше, чем может выразить словами, а умение не может быть получено с помощью пропозиций, но требует практики и научения в предметной деятельности.

Можно выделить три победных вехи новой ИИ волны: шахматы, викторина Jeopardy и го. При этом Watson не показал ожидаемых успехов в медицине. Но изменяется и контекст критики самой возможности реализации AGI из последовательного развития ANI, вот важнейшие аспекты недостижимости человеческого уровня:

• Машины не могут обрабатывать tacit данные.

• Непрозрачность обработки данных искусственными нейросетями – это недостаток, а не преимущество. Понимать – значит интерпретировать.

• Обучение требует очень большого количества данных. Очень большого.

• Машины могут обрабатывать только корреляции, однако, причинно-следственные связи к корреляциям не сводятся. В обработке причинно-следственных связей нет прогресса. Данные для обработки всегда будут «что», а не «почему».

• Человек живет в вещественном и социальном мире, где компьютер не представлен как субъект. Его как бы и не существует.

• Компьютер манипулирует знаками, а не контекстами.

Общий вывод: критика Дрейфуса актуальна до сих пор, AGI недостижим.

[Конец пересказа статьи]


СИСТЕМА ДРЕЙФУСА

Прежде, чем обозначить потенциальные темы к семинару я не могу отказаться от удовольствия прокомментировать предлагаемый текст.

Важно отметить, что Дрейфус никогда не утверждал, что ИИ уровня AGI/HLAI невозможен. Его критика – это не критика подходов и развития, а обозначение границ ИИ-мейнстрима. В этом месте возникает первый парадокс: моя критика иишного мейнстрима (как бы изнури, как человека, занимающего AGI) включает в себя критику Дрейфуса полностью. На мой вкус, в критике Дрейфуса нет никакого луддизма, она очень конструктивна, это правильно заданные вопросы, которые нуждаются в правильно сформулированных ответах.

Так же я хотел бы отметить, что система Дрейфуса предельно элегантна в своей постановке (чего, на мой вкус, не получилось у Фьеланда): AGI достижим, если «работают» биологическое допущение и психологическое допущение, основанное на эпистемологическом и онтологическом допущениях. Я напомню вам их кратко:

• Биологическое допущение означает, что мозг работает аналогично компьютеру, а мышление представимо в виде программного обеспечения.

• Психологическое допущение означает, что мышление представимо дискретными символьными вычислениями (алгоритмами).

• Эпистемологическое допущение означает, что любая человеческая деятельность подчиняется познаваемым законам природы.

• Онтологическое допущение означает, что эти законы могут быть сформулированы в виде символьных правил.

Это очень красивая замкнутая система.

Однако те упрощения, которые вводит Фьеланд для лучшего понимания и осовременивания, «сдвигают» проблему достижимости AGI в технологическую плоскость, добавляя некоторые новые элементы и детализируя их. Наверное, в этом есть определенный смысл, но если идти до конца по этому пути, то существует возможность понизить философский градус до проблематики деятельности. Я рискну предложить свой вариант, который, как мне кажется, довольно точно отражает проблемы AGI:

• Что такое обучение и можно ли научить этому машину?

• Что такое понимание, где и как оно «находится»: в знаниях или умениях, в отдельном человеке или социуме и его технологиями?

• Что такое деятельность и необходимо ли сознание, чтобы быть субъектом?

И так получается, что понижение градуса приводит к серьезному расширению темы, не пытаясь объять необъятное, я попробую в каждом из пунктов выделить только один ключ и обозначить его исключительно в инженерной репрезентации, насколько это возможно. Эти ключи – мои дополнения к тексту статьи и ее интерпретация под более удобным углом зрения (возможно, вам представляется иначе – давайте обсудим и это).


ПРОБЛЕМАТИКА ОБУЧЕНИЯ

Да, тема почти бесконечная, особенно если привлечь сюда аспект отношения знания и умения, а также роль социальной организации в интеллекте (например, эффект Маугли и эффект Робинзона как самые наглядные демонстрации того, что индивидуального интеллекта строго не существует, существует только социальный интеллект).

КЛЮЧЕВОЙ ВОПРОС В ОБУЧЕНИИ ПРОСТ – МОЖЕТ ЛИ СУЩЕСТВОВАТЬ АЛГОРИТМ ОБУЧЕНИЯ ОБУЧЕНИЮ.

Первый узкий момент в этом вопросе – метаданные. Знаковые системы устроены таким странным образом, что они либо содержат неопределяемые понятия, либо понятия, которые определены друг через друга, либо рекурсивно. В мире человеческой деятельности такая ситуация полностью компенсируется тем, что семиотика метаданных опирается на пространство образов мира и пространство образов понятий. В алгоритмической системе и то и другое приходится эмулировать ровно тем же способом, что и все прочие объекты – символьным. То есть задача полного исчерпывающего определения метаданных на уровне формальной онтологии не имеет алгоритмического решения. Но тут нужно уверенно понимать, что эта констатация не является отрицанием возможности существования алгоритма обучения обучению. Просто нужно зафиксировать этот bottleneck и не рассчитывать на то, что онтология может быть больше, чем Domain Specific. Просто этот Domain Specific можно попытаться натянуть на глобус универсума.

Второй узкий момент – изменяемость алгоритмов или их генерация. Мышление занимается именно этим – для каждой конкретной задачи генерирует оптимальный метод решения. Машина так не умеет, в машинном обучении мы имеем дело с ограниченным числом моделей, где оптимизируются потери точности. Говорить об эквивалентности Искусственных Нейронных Сетей Машине Тьюринга можно лишь условно, причем с явной асимметрией ИНС ==> МТ.

Третий узкий момент – обучение ML моделей. Да, обучающие данные вкупе с алгоритмами оптимизации ошибок и аппроксимационными алгоритмами, дают потрясающий по эффективности результат. Но на предельно узком круге задач. И это совершенно противоположно тому, как устроено мышление: мышлению общие задачи решать проще, чем частные. Мышление уже в своем зачаточном состоянии осваивает язык (любой, и он станет родным), достигает почти совершенства в нем, а уже затем переходит к изучению предметов, наук и технологий. И к концу своей жизни, уже на пороге Альцгеймера, естественный интеллект достигает пика своей формы. И это противоположно тому, что происходит в DL и ML, и на начальном этапе, и на конечном. Аргумент, что самолет не машет крыльями здесь не слишком уместный, поскольку ИИ в формате ML еще не умеет летать.


ПРОБЛЕМАТИКА ПОНИМАНИЯ

Понимание «продолжает» обучение и высвечивает две важных проблемы, о которых очень точно рассказал Фьеланд: tacit знания, которые не существуют в явном декларированном виде и проблему умения, которое адресует нас к третьему пункту о проблематике деятельности. Знать – это уметь или владеть какими-то пропозициональными формулами? Впрочем, вместо «или» вполне может быть «и/или», сути это не изменит. Но это не ключевые вопросы.

КЛЮЧЕВОЙ ВОПРОС ПОНИМАНИЯ (ПО МОЕМУ СКРОМНОМУ МНЕНИЮ) МОЖЕТ ЗВУЧАТЬ ТАК: МОЖЕТ ЛИ СУЩЕСТВОВАТЬ СМЫСЛ НЕ КАК ЗНАЧЕНИЕ.

Вот это отрицание «не как значение» выглядит предельно коряво, но иначе сформулировать у меня не получилось, поскольку проблема именно в том, что невозможно сформулировать позитивно как должен существовать в машине смысл. На текущий момент смысл в системах интеллекта отсутствует полностью, либо в явном или неявном виде представляет собой значение, а чаще всего просто знак, просто идентификатор. Смысл в мышление – это понятие. Это «правая» часть семиотического пространства модели, где существуют сущностные содержания лексических (языковых) идентификаторов модели. Построить подобную схему в машинной обработке пока не удается, здесь сразу начинают работать те ограничения, о которых говорят Дрейфус и Фьеланд.

Вырваться за пределы символьной обработки (исчисления) – это важнейший шаг на пути создания AGI.


ПРОБЛЕМАТИКА ДЕЯТЕЛЬНОСТИ

Фьеланд пишет, что машины отсутствуют в мире. Это очень сильное и глубокое утверждение. Его можно обсуждать очень долго, начиная с субъектности машинного интеллекта (отсутствием его), и заканчивая целеполаганием, которое тоже отсутствует. Как говаривал Воланд, что же это у вас, чего ни хватишься, ничего нет! Но деятельность не исчерпывается субъектностью и целеполаганием, на другом конце деятельности находится сознание – и это абсолютная химера. Можно пытаться представлять сознание как синхронизацию сенсорной системы и восприятия, можно пытаться находить в сознании какое-то специфическое отражение, можно видеть в нем интенциональность, сути это не изменит, мы не знаем что такое сознание даже на естественном уровне, поэтому нет никакого смысла городить его машинную репрезентацию.

Но деятельность можно попытаться свести к сервисам, так, например, беспилотное вождение – это уже деятельность. Оценка качества и дефектоскопия – это деятельность. Распознавание образов, помещенное в контекст систем социального слежения – это деятельность. Субъектность такой деятельности сразу проявляется в прецедентах судебных процессов и юридических парадоксах, связанных с отсутствием таковой субъектности. Кто виноват в ущербе от автопилота: владелец транспорта, единственный пассажир в салоне, программист, дейта-саентист, который размечал данные, владелец автокомпании? Проблематика правового существования искусственного интеллекта – это совершенно непаханое поле, успевайте создавать в этом месте стартапы.

Но ключевой вопрос деятельности иной, это не про сознание, не про субъект, не про правовые аспекты использования ИИ, и даже не про целеполагание и горизонты планирования.

КЛЮЧЕВОЙ ВОПРОС ДЕЯТЕЛЬНОСТИ ЗАКЛЮЧАЕТСЯ В СПОСОБНОСТИ МАШИНЫ ПОДДЕРЖИВАТЬ СВОЮ ЦЕЛОСТНОСТЬ.

В этом месте тоже полный сад расходящихся тропок. С самого фундаментального уровня, поскольку любое существование – это репликация себя во времени. И не простая репликация, а в условиях незыблемости Второго Начала термодинамики. И любая живая система выглядит как небольшая фабрика по переработки среды в своё внутреннее устройство.

Для неживых систем такого нет, но метафора эволюционного развития применима и к ним, если сделать несколько очередных допущений (в стиле Дрейфуса и Фьеланда). Да, машины не размножаются, но со стороны выглядит так, словно процесс размножения просто перенесен в Техногенез, поскольку по факту машин становится больше, они становятся лучше, а их производительность и функциональность становится нашей с вами основной задачей. Но до тех пор, пока у нас есть возможность нажать кнопку питания, мы будем жить в иллюзии, что мы контролируем их. Несмотря на весь симбиоз и понимание факта, что искусственная (техническая) составляющая нашей цивилизации – это единственный инструмент ее развития.


КРУГЛЫЙ СТОЛ 2020-07-23

Таким образом к круглому столу у нас есть три плоскости обсуждения:

• Предложенная статья Фьеланда

• Исходная система Дрейфуса

• Моя интерпретация этой темы

Уверен, что многие имеют свои ответы на вопрос: можно ли достичь Сильного Искусственного Интеллекта, если «да», то как, если «нет», то почему. Давайте разомнем дискурс, а в четверг подвергнем друг друга счастью человеческого общения.

 

https://meet.google.com/fhr-xhhc-opg

 

Егоров




0 комментариев