Онтокритика мифа искусственного интеллекта

Онтокритика мифа искусственного интеллекта

by Евгений Волков -
Number of replies: 2

Евгений Волков https://www.facebook.com/envolk/posts/5028371620523564

Это вам не Сноуден с Ассанжем, значимость и ценность таких разоблачений гораздо выше политических и финансовых секретов. Только сегодня утром перепостил подобное про высшее образование, а тут и про ИИ подоспело smile Согласен, кстати, с С. Бедрицким в комментариях про искусственность человеческого интеллекта как самоделки на знаковых элементах, давно пришёл к такому представлению. И метафора карго-культа неточная, поскольку и миф ИИ, и карго-культ туземцев являются частными случаями стандартных приключений сильных человеческих желаний, индуцирующих слепоту верований и отказ от попыток критики.

Alexey Egorov https://www.facebook.com/alexey.egorov.1029/posts/2181825311970028

КАРГО-КУЛЬТ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

В разработках искусственного интеллекта наступила странная фаза: страницы сайтов еще полны победных реляций, но всё чаще озвучивается два неудобных вопроса: что в предлагаемых системах интеллектуального, если они не обладают способностью к восприятию, пониманию и мышлению, которые являются неотъемлемыми качествами интеллекта. Второй вопрос: что в предлагаемых системах искусственного, если для создания, «обучения» (для этого процесса кавычки тоже обязательны))) и сопровождения ИИ-систем нужны люди, то есть непрерывное участие в процессе интеллекта естественного. То есть, в ИИ, хоть это и странно звучит, нет ничего интеллектуального и ничего искусственного.

Если вынести за скобки ИИ реальные технологии аппроксимации, регрессионного и статистического анализа, то в сухом остатке мы обнаружим карго-культ интеллекта естественного и признаки этого карго-культа можно проследить с момента появления проблемной области ИИ до настоящих дней, когда (усилиями разработчиков) большинство населения Земли пребывает в уверенности, что искусственное мышление не только существует как факт, но уже оказывает влияние на все цивилизационные процессы. Да, культурное влияние оказывает. Как культ. И именно с культом я попробую разобраться, обозначив его основные признаки. Карго-культом.

Мы привыкли к тому, что карго-культ — это туземцев и про гуманитарные грузы, которыми нужно делиться. А когда ими делиться перестают, то туземцы начинают строить самолеты из навоза и соломы и ждать, когда тушенка и сгущенка будет падать с неба. Мне же кажется, что карго-культ — это фундаментальный социальный паттерн, который по глубине не уступает модели Кюбоер-Росс, где существует пять стадий отношения к болезни: отрицание, торг, гнев, апатия, принятие. Карго-культ также представляет собой фундаментальную последовательность симуляции какой-то деятельности, результаты которой не могут быть достижимы для социума в тех условиях, в которых он существует. В этом наброске я хотел бы показать, как карго-культ реализует себя в такой деятельности как разработка искусственного интеллекта, где в качестве туземцев будут выступать разработчики, программисты и инженеры. И — да — нужно быть самокритичным, я тоже в этом смысле — туземец, поклоняющийся карго-культу, поскольку много лет тружусь в области разработок ИИ.

Я выделяю в карго-культе пять стадий. Вожделение, имитацию, отождествление, обесценивание, опровержение.

Стадия первая. ВОЖДЕЛЕНИЕ.

Желание обладать интеллектом не требует аргументации, оно естественно и понятно. Туземцы видят интеллект, его продукты и начинают хотеть его воспроизвести. В этом месте сразу возникают нюансы. Туземцам хочется, чтобы мышление ИИ было гениальным, уровня выдающегося ученого, но при этом полностью управляемым и предсказуемым. Чтобы интеллект был со всеми достоинствами алгоритмической системы, но без недостатков «системы» человеческой. Чтобы решатель такого интеллекта был максимального эффективным, но при этом оставался универсальным. И так далее.

Вожделение обладать интеллектом у туземцев столь велико, что они не удосужились не только сформировать требования к системе, а также создать дорожную карту реализации проекта, но не смогли даже толком определить базовые понятия, такие как обучение, понимание, восприятие. И как вишенка на торте — до сих пор нет вменяемого определения самого интеллекта и понимание механизмов его работы. То есть имеет место ситуация «пойди туда не знаю куда, принеси то, не знаю что», которая является основой любого карго-культа.

Стадия вторая. ИМИТАЦИЯ.

Туземцы очень хотели искусственный интеллект, но ничего, кроме ламповых диодов и электрических реле поначалу не было, пришлось собирать первый перцептрон на громоздких компонентах, вооружившись паяльником, а не back propagation. В один слой эта конструкция не могла справиться даже с XOR'ом. Поэтому критика подавила начальный энтузиазм и наступила первая "зима" ИИ. С тех пор так и повелось в этом предмете, сверхэнтузиазм всегда чередовался с крайним разочарованием.

Но вожделение осталось несмотря на то, что попытки воспроизвести требуемое качество не имели успеха. И туземцы начинают уговаривать себя, что утка — это не утка, а то, что крякает как утка, плавает как утка и имеет крылья с перьями. Утка — это набор утиных качеств. Кажется, что это очень правильная и конструктивная идея, но проблема в том, что утка в таком исполнении оказывается куском пенопласта (плавает), с привязанным к нему манком (крякает), с двумя крыльями, облепленными перьями. Если добавить моторчик и поработать над аэродинамикой, то она еще и летать будет.

Стадия третья. ОТОЖДЕСТВЛЕНИЕ.

Однако задачи обработки данных никуда не исчезли, а среди них было много задач распознавания, кластеризации, регрессионного анализа, прогнозирования. Совершенствовались языки программирования и библиотеки, росла (удваиваясь) производительность машин. Через какое-то время оказалось, что существует довольно много уже решенных задач, в том числе задач сложных. И тогда туземцы подумали: то, что у нас работает — это и есть интеллект. Логику предикатов стали называть рассуждениями, статистическую обработку текстовых корпусов стали называть обработкой естественного языка, аппроксимационные модели — нейронными сетями.

Потом оказалось, что при хорошей производительности можно создавать модели, в которых количество слоев и параметров будет велико и ничего понимать или создавать при этом особенно не нужно — только знай себе увеличивай размерность векторов. Процесса подбора параметров в линейных уравнениях туземцы стали называть почему-то обучением, а при большом количестве слоев — глубоким обучением.

Так туземцы, не изменив, фактически, ничего, что было создано в 80-х годах прошлого века, путем изящных переименований, получили новый мир, в котором ИИ стал важнейшей технологией бизнеса и не осталось бизнеса, в котором не было бы ИИ.

Стадия четвертая. ОБЕСЦЕНИВАНИЕ.

Но проблема интеллектуальности никуда не исчезла, ее так и не было, она так и не появилась. Увеличивая и увеличивая модели, туземцы искренне надеялись, что возникнет эмерждентность и превратит тыквы, приготовленные для бала, в кареты, мышей в коней, а когнитомы в мысли и сознание. Но эмерджентность как-то не возникала. И это по-хорошему очевидно, что система, сделанная из глины и палок работает плохо или не работает вовсе. Но туземцы не умели ничего другого. И началось обесценивание идеи ИИ.

Сначала раздались голоса, что искусственный интеллект — это опасно. Что нельзя его делать особенно хорошим, поскольку он сразу начнет мыслить. Что и даже средней хорошести его делать не нужно, поскольку возникнет конкуренция с человеком. А кроме того, что это опасно, это ещё никому не нужно и крайне бесполезно. Поскольку, если бы интеллект был востребован, то именно философы были бы самыми оплачиваемыми специалистами на земле.

Стадия пятая. ОПРОВЕРЖЕНИЕ.

И началось отрицание возможности создания искусственного интеллекта, отличного от того, который удается создать. Один мой хороший товарищ в интервью привел такой замечательный аргумент: что вы хотите от ИИ, мозг — это не компьютер, они отличаются друг от друга, поэтому и мышление отличается от аппроксимации. В целом я даже согласен с таким тезисом, за исключением слова «поэтому». Мышление от аппроксимации отличается не потому, что компьютер — это не мозг, а потому, что мы не умеем решать задачу искусственного мышления на иной элементной базе.

Позиция, что интеллект в компьютере невозможен пришла сразу за оптимизмом того, что AGI/HLAI как аналог мышления будет создан в ближайшее время, нужны просто деньги. Нужно делать всё то же самое, но просто быстрее, мощнее и глубже. Больше слоёв, больше признаков, больше памяти, больше перформанса, больше параллельности, итд. Больше, больше, больше и эмерджентность придет. Не может не прийти.

А если не придет, то, по-видимому, никакого интеллекта и не существует.

Господа разработчики ИИ, достижимость интеллекта доказана существованием цивилизации и человека. Хотя… не знаю. Иногда кажется, что достаточно выглянуть из окна и оглянуться вокруг, чтобы засомневаться, что это так.

Alexey Egorov (С) 2021

Комментарии: 24

Виталий Елиферов

Вообще-то, я не знаю ни одного профессионала в этой области, который бы писал на эту тему.

Только безграмотные журналисты, конспирологи, любители "страшилок и шапочек из фольги".

13 ч.

Alexey Egorov

Vitaly Eliferov Ну вот я написал сейчас...

13 ч.

Виталий Елиферов

Alexey Egorov Стоит ли тратить время на то, что существует лишь в умах тех, кого я перечислил?

13 ч.

Alexey Egorov

Vitaly Eliferov Мне нравится идея карго-культа как сложного социального процесса симуляции. Вот, например, "демократия" у русских, это ведь типичный карго-культ, просто он сложнее, чем имитация самолета.

12 ч.

Виталий Елиферов

Alexey Egorov Термин "карго-культ" позволяет описать системную проблему в виде одного яркого образа (модели).

Вообще, человек только считает, что он мыслит категориями "система", "процесс". В реалии он всегда оперирует "моделью системы", "моделью процесса". Очень много разногласий вызывает то, что каждый считает свою модель (степень ее абстракции, детальность атрибутирования объектов и связей) — самим объектом или самым правильным описанием объекта (самой правильной моделью).

Слишком часто мы говорим на разных языках (в разных образах и нотациях), отсюда и возникает неумение договориться до консенсуса.

Так же и с терминами "демократия" и "либералы" в России. Под этими терминами понимается все, что угодно, в зависимости от степени воспитанности собеседника.

12 ч. 

Alexey Egorov

Vitaly Eliferov Мы расходимся с Вами в вопросе о том, чем оперирует человек и как он мыслит. Кстати, семиотика — это достаточно хорошая репрезентация знаковых систем, она позволяет хорошо "обрабатывать" и образы и нотации...

12 ч.

Victor Senkevich

Vitaly Eliferov А что делают профессионалы в этой области, которые не пишут на эту тему? Нейросетки программируют? Им некогда обсуждениями заниматься? Просветите нас срочно!

12 ч.

Виталий Елиферов

Victor Senkevich "Срочно" — не получится. Тема слишком обширная, да и что такое ИИ, — я не знаю.

12 ч.

Mike Malkov

в итоге денег не получили, ну или пока не получили. новое рассмотрение где дадут пояснение и на этом всё.

12 ч.

Alexey Egorov

Mike Malkov Насколько я понимаю, ситуация довольно далека от итогов...

12 ч.

Victor Senkevich

Вау. Неплохо. Но слишком пессимистично. Хотя... Оптимисты должны и в этом грустном изложении увидеть очевидный шанс для тех, кто хочет выбраться из этой глубокой колеи нейросетей, в которой увязли почти все. Но не все... Некоторые все же пытаются научить компьютеры рассуждать, а не вычислять.

12 ч. ·

Alexey Egorov

Victor Senkevich Да. Но если рассуждение будет исчислением — ничего не изменится. Конечно, сначала нужен будет какой-то свой "backprop", чтобы бороться с комбинаторной стеной цепочек вывода. Но, даже если такой алгоритм появится, reasoning на основе значений истинностей не даст нужного результата, imho.

12 ч.

Александр Тетеркин

Лёша, согласен со всем. Одно только хочется сказать в защиту инженеров ИИ первой волны: благодаря им у нас есть компьютеры.

11 ч.

Alexey Egorov

Alexander Teterkin Да. Это так.

11 ч.

Victor Senkevich

Alexey Egorov Вот. Это и демонстрирует "колею нейросетки". Нейросети успешно борются с комбинаторикой. Поэтому и выигрывают в шахматы и в го. Это успех, от которого трудно отказаться. Но надо, чтобы освоить алгоритмы non-deterministic reasoning, где истинность не всегда определена. А в вербальном AGI, оперирующим на естественном языке, почти всегда не определена. Зато там нет комбинаторики, и такой интеллект тоже сможет выдать "IMHO, мне так кажется..."

11 ч.

Mykola Rabchevskiy

Victor Senkevich, надежда на неточную (вероятностную) логику de facto ничем не отличается от надежды на рост числа параметров: эмерджентности не получится. Интеллект — не в способности особым образом использовать имеющуюся информацию, а в том, чтобы ДОБЫВАТЬ НОВУЮ информацию. Нк то есть интеллект = Intelligence Service

10 ч. ·

Victor Senkevich

Mykola Rabchevskiy Да, если говорить о вероятностях. Но я о них не говорю вовсе. Я утверждаю строго обратное.

Вероятности не существует.

Вероятность вычисляют там, где не знают, что делать, где нет точных данных или мы их не умеем извлекать. Вычислять вероятность следующего слова — это нонсенс и бессмыслица. Что и видим на выходе нейросети — правдоподобную бессмыслицу. А мы всё-таки пытаемся искать смыслы. Ну или кто-то помимо нас.

Давайте почувствуем разницу между вероятностью и неопределенностью. Интеллект не оперирует вероятностями. Он оперирует неопределённостями и фактами. Строя обобщения на основе предположений. Это не индукция, это абдукция. Это и есть основная функция интеллекта. Невычислительная. Я пишу об этом в своей статье.

Итак, логика интеллекта неточная, но не вероятностная.

10 мин.

Oleg Kultynov

11 ч.

Сергей Бедрицкий

Предложу альтернативные представления. Карго-культ — это отождествление непонятного нам поведения с нашими архаичными представлениями. Ведь, не считаем мы карго-культом, когда наши "соплеменники", потерпевшие крушение, выкладывают SOS из подручных предметов — мы не считаем это заклинанием стихий или пародией на творчество Даниеля Дефо. Поведение туземцев вполне укладывается в смысл подачи сигнала: "Мы — здесь! (Может, вы потеряли нас). Мы схожи с вами — как схожи с вашими, воспроизведенные нами конструкции. — Мы разделяем ваши ценности, и хотим продолжить (очень полезное для нас) общение!" Если даже допустить, что туземцы обращаются именно к высшим силам с просьбой "верните нам вот этих" — то и в этом случае выбранная ими символика ни в чем не уступит самым выразительным нашим культовым символам. ----- К культуре, мы относим все то, что создано деятельностью человека, а не воспроизводится природой без его участия. С учетом этого, более логично относить интеллект — результат взаимодействия разума и культуры (или образования, как части культуры) — к искусственным, неприродным явлениям. Как не считаем мы построенный из ПЕСКА замок, даже построенный на морском пляже (чего только не "выкатит" море...) — творением природы. Или, сделанный из глины кувшин... Мы не привыкли в каждом из видов своей деятельности различать собственное отражение — а пора бы... В этом смысле, создание ... не искусственного (уже человеческий интеллект — продукт искусственный), а альтернативного (воспроизведенного на носителе, альтернативном человеческому разуму) интеллекта — самая эвристичная для человеческого самопознания деятельность.

16 ч.

Бедрицкий С.Alexey Egorov
Сергей Бедрицкий Согласен. В проблема в языке и в том, что язык карго-культа слишком "контекстный", __Высшие__Силы__ просто не умеют читать и транслировать такие тексты.
1 ч.

Сергей Бедрицкий
Alexey Egorov Не возьмусь утверждать, чего могут и что не могут высшие силы. Я лишь сопоставил выразительность символов "цивилизованного" общества и "туземного", обращенных к высшим силам, между собой. Я бы назвал карго-культом состояние, когда намазать царапину зеленкой первокласснику — может его одноклассница, а президенту — только профессор медицины. — Это одно из наших представлений, и туземцы попали под раздачу. )
1 ч.

Alexey Egorov
Сергей Бедрицкий Да, наверное, я просто пытаюсь перевести на понятный мне язык ))
1 ч.

Сергей Бедрицкий
Alexey Egorov Самокритично, и это при том, что к взаимопониманию мы движемся ... симпатично прямо. )
1 ч.

Игорь Дмитриенко

Всѣмъ сестрамъ по серьгамъ.

10 ч.

Dennis Parshutin

Наконец то расшифровка комментария Сергею Карелову

9 ч.

Mykola Rabchevskiy

Но я согласен и с Victor Senkevich: есть и для оптимизма основания, поскольку в наличии кроме строителей соломенных самолётов другие, которые таки сделают изначально обещанное — и мы знаем даже, где они есть — и найдутся те, кто сделанное украдут (и мы тоже знаем, где они), поэтому результат станет достоянием всеобщим

9 ч. ·

Dennis Parshutin

Я всё же не верю, что возможен интеллект на кристалле. Алгоритмы многослойные да, но не интеллект или, ещё сложней — осознание. Попробуйте медитировать и вы поймёте что

59 мин.

Георгий Вертипрахов

Точно.

До сего дня всё — карго-культ.

Было понятно, но надо было подвести черту.

2353 words

In reply to Евгений Волков

Онтология интеллекта — «естественного» и искусственного

by Евгений Волков -

Евгений Волков

https://www.facebook.com/envolk/posts/5054823377878388

Хорошая онтокритика detected smile И очень ценный тезис, как раз сейчас работаю с его конкретным практическим применением и развитием:

«Естественный интеллект начинает своё формирование с высокоуровневых категорий, в которых универсальность очень эффективно сочетается с конкретным использованием».

Alexey Egorov

https://www.facebook.com/alexey.egorov.1029/posts/2188155201337039

ИНТЕЛЛЕКТ КАК ЗАДАЧА

В своём предыдущем наброске, посвященному карго-культу ИИ (https://www.facebook.com/alexey.egorov.1029/posts/2181825311970028), я выразил сожаление, что в проблематике ИИ нет такой простой и очевидной вещи, как постановка задачи, где были бы сформулированы требования, основные определения, очерчена граница проблемной области и специфицированы объекты обработки. Хотя бы в самой минимальной детализации. Конечно, на уровне отдельных подходов и методов (особенно, если они имеют хорошую имплементацию в программном коде) такое описание существует (по факту), но по отношению к феномену интеллекта как проблемной области всё это носит мозаичный характер. И эту мозаику усиливает очередная шероховатость: мы как бы всё время говорим, что, нет-нет-нет, мы не решаем задачи реконструкции интеллекта и intelligence — это вообще про другое, но всякий раз (хотя бы на уровне маркетинга и журналистики) возвращаемся к тому, что да-да-да, то что мы делаем и есть интеллект. И такая мозаика мешает увидеть картину целиком.

Поэтому я стану рассматривать некую обобщенную систему, куда заключу все (известные мне) существующие технологии ИИ и пусть эта обобщенная система условно обладает этими качествами в некоторой целостности. И сравнивать эту ИИ-систему я стану с естественным человеческим интеллектом и его мышлением.

В первую очередь мне бы хотелось остановиться на требованиях к интеллектуальному "сервису" (или "продукту"), для этого я выбрал несколько функциональных групп и в каждой группе определил ключевые качества. В этом наброске (разделю его на несколько частей, которые выложу отдельными постами) я привожу свою, егоровскую, классификацию отличия ИИ от ЕИ.

Группы у меня получились следующими: УНИВЕРСАЛЬНОСТЬ (количество данных, разнообразие, абстракции, комбинаторика, логический вывод), УСТОЙЧИВОСТЬ (состязательные ошибки, недообучение, переобучение, неполнота данных, объяснимость результатов), АДАПТИВНОСТЬ (интерфейсы, возможность пост-обучения. адаптивность сценариев обработки, обратные связи, решение некорректных задач), КОГНИТИВНОСТЬ (понятийная память, обобщение, рассуждения, inference и reasoning, обработка метафор, полисемия, понимание), АКТИВНОСТЬ (постановка, решение произвольных задач, создание инструментов, моделирование, генерация алгоритмов, построение инструкции, рефлексия, представление о мире, себе, своих границах и своем внутреннем устройстве). В рамках этой структуры я и стану рассматривать отличие искусственного и естественного интеллекта, хотя, скорее, не отличие, а полную противоположность.

I. УНИВЕРСАЛЬНОСТЬ "ИНТЕЛЛЕКТУАЛЬНЫХ" РЕШЕНИЙ

001. КОЛИЧЕСТВО ДАННЫХ

Последнее время новомодные системы рапортуют об использовании миллиарда параметров при своем "обучении". О гигабайтах обучающих датасетах. Даже такая простенькая задачка как MNIST представлена тысячами примеров. Чтобы научить естественный интеллект какому-то объекту, правилу или сценарному элементу, достаточно показать обучающий пример несколько раз. Да, начинают развиваться a few-shot системы и есть задачи трансфера обучения, но это отдельные примеры, существующие в специфичных условиях, общее правило таково: искусственный интеллект, в отличие от ЕИ, требует большого количества данных для обучения, чем больше обучающая выборка — тем лучше. В этом требовании ИИ и ЕИ показывают противоположные качества.

002. РАЗНООБРАЗИЕ ДАННЫХ

С разнообразием данных для обучения ситуация еще хуже, для обучения ИИ требуется набор с "исчерпывающими" примерами, если какая-то ситуация, объект или признак не будет представлен в обучении, то система вообще не будет подозревать о возможном существовании таких условий. Так, например, если в задачах распознавания обучающие примеры поворачивать на небольшой угол, то качество "обучения" значительно улучшится. Естественный интеллект при обучении сам умеет продуцировать разнообразие условий, то есть и в этом требовании ИИ и ЕИ показывают противоположные качества.

003. АБСТРАКЦИИ ДАННЫХ

Это немножко программисткий термин, но он очень хорошо отражает очередную противоположность свойств ИИ и ЕИ: естественный интеллект очень хорошо усваивает абстракции, интеллект искусственный вынужден подменять абстрагирование аппроксимацией, решая задачу снижения размерности данных или устанавливая логические отношения между признаками.

Естественный интеллект начинает свое формирование с высокоуровневых категорий, в которых универсальность очень эффективно сочетается с конкретным использованием. Чтобы было понятно о чем именно я говорю, приведу три примера. Язык первобытного человека (а значит и ментальные модели) развивались от небольшого числа универсальных понятий, которые сочетали в себе применимость в повседневной деятельности и потенциал обобщения и развития. Такая же ситуация с языком и репрезентациями ребенка, чья картина мира эволюционирует за очень короткий временной отрезок.

Похожие процессы можно проследить в гносеологии, которая в античности и до технической эпохи оперировала высокоуровневыми философскими абстракциями, которые по мере усложнения деятельности находили свои предметные имплементации. ИИ не умеет этого совсем. И нет даже намеков, как можно было бы организовать подобную обработку данных.

004. ПРЕОДОЛЕНИЕ КОМБИНАТОРНОЙ СТЕНЫ

Не секрет, что человек довольно живо решает задачи, которые относятся к NP-полным. Мы сейчас не станем обсуждать, насколько точно и хорошо, вопрос не в этом, а в том, что большинство интеллектуальных задач имеют неполиномиальную полноту. А вторая половина этих задач — задачи реконструкции, которые являются обратными, которые не могут быть корректно поставлены в рамках какого-либо исчисления. Человек справляется и с реконструкций, и не просто справляется, а непрерывно решает эти задачи, поскольку любая рефлексия — это реконструкция. Я знаю, что ты знаешь, что я знаю, что ты знаешь. Для ИИ подобные задачи тяжело даже формализовать, я не видел ни одной постановки такой задачи хотя бы на уровне обсуждения проблемной области.

Мы снова сталкиваемся с ситуацией, когда "способности" ИИ и способности ЕИ носят противоположный характер. Да, ИИ умеет решать комбинаторные задачи. Да, нет больше логических игр, в которых бы человек был сильнее компьютера, включая вероятностные игры типа карточных. Но ИИ не в состоянии сгенерировать ни одного нового понятия, а мы пополняем свои тезаурусы каждый год неологизмами.

005. ЛОГИЧЕСКИЙ ВЫВОД

Великий Канеман сказал, что у человека два типа мышления, одно неточное, другое медленное. Нобеля ему за это дали. Так и живем. Я в свой юности еще застал экспертные системы, которые занимались попытками логического вывода сущего. А этого не получалось дальше простейших силлогизмов и вырожденных учебных примеров. А вот у медленной и неточной системы получается вполне. И всякий раз, когда мы апеллируем к определениям, выводам, доказательствам и прочим химерам исчислений, оказывается, что формализации работают в очень узком диапазоне и вообще неглубоко. И работают совсем не так как интеллект. И интеллект работает совсем иначе, например, умножение пятизначных чисел без бумажки — невозможно для 99.99%-ного большинства. А тупой калькулятор делает это с удовольствием.

Сейчас, когда все марковские цепи и колмогоровские сложности глубоко забыты под тоннами автоэнкодеров, суть все-равно не поменялась, логика в естественном интеллекте не работает от слова совсем, ассоциации — да, подобия и похожести — однозначно, исчисления — нет. А все глубокие обучения — это исчисления. То есть в части логического и математического выводов мы снова имеем противоположность интеллекта и ИИ.

... to be continued ...

Комментарии: 20

Александр Соколов

Да, сведение интеллекта только к логике, а обычно всю логику сводят только к формальной логике, так как других не знают, это ошибка. Так как кроме логики интеллект пользуется и другими интеллектуальным и инструментами построения разумных суждений.

12 ч.

Alexey Egorov

Александр Соколов Да. Разумеется, я не против рассуждений и выводов (inference), я просто отмечаю, что естественный интеллект противоположен по свойствам и качествам ИИ. Поэтому не нужно что-то модернизировать в ИИ, нужно просто в другом месте начать выращивать интеллект (мышление). )))

12 ч.

Александр Соколов

Alexey Egorov смотря к чему относить свойства и качества в интеллект, если к материалу, на котором он существует, то соглашусь. Например, свойства и качества биологического материала естественного интеллекта совсем другие, чем материала, на котором будет существовать искусственный интеллект. Но свойства и качества процессов, текущих в интеллект будут очень схожи и в обоих.

12 ч.

Alexey Egorov

Александр Соколов Нет, не будут. Я как раз показываю, что они "противоположны"... )))

12 ч.

Александр Соколов

Alexey Egorov вы показываете другое, что сегодняшние ИИ ты, это не интеллект от слова совсем.

12 ч.

Alexey Egorov

Александр Соколов Да, я говорю исключительно о текущем понимании интеллекта и текущем состоянии ИИ. А Вы говорите о несуществующем? )) Я так не умею...

12 ч.

Александр Соколов

Alexey Egorov а иначе, чем через проектирование того, чего нет, оно и не появляется. Изучение того, что есть, обычно ничего не даёт.

12 ч.

Alexey Egorov

Александр Соколов Не спорю. Но проектирование от фантазирования довольно сильно отличается. И пока не будет предъявлена демонстрация какого-то прототипа, мнения будут равны в своей недоказуемости. У Вас никакого прототипа нет, поэтому мои представления об интеллекте ничуть не хуже Ваших. ))

12 ч.

Александр Соколов

Alexey Egorov так вы не высказываетесь в ваших представления об интеллектуальных процессах или я что то пропустил? В ваших представления все о материальном, а не о процессуальном в интеллект, или я ошибаюсь? Если ошибаюсь, то покажите интеллектуальные процессы и посмотрим на них, я ж не против.

11 ч.

Alexey Egorov

Александр Соколов А какой в этом смысл, у меня тоже нет прототипа интеллекта. ))) Я совершенно не против обсуждать тему интеллекта, проблема в двух вещах: за последние несколько лет я не видел ни одной новой идеи в этой области. Всё старое обсуждено не по разу. Во-вторых, большинство идей кристаллизовались в сверхценные, когда автору важно не искать решение задачи, а важно транслировать и реплицировать саму идею, которая его переполняет как паразит. )))

11 ч.

Александр Соколов

Alexey Egorov хм, тогда в чем смысл вашего поста, в котором вы хотите сопоставить искусственный, которого ещё нет у вас, и естественный, который уже есть у вас?

1 ч.

Александр Тетеркин

Алексей, спасибо! Как всегда, очень качественный текст.

Японцы, кстати, детей в школе учат перемножать в уме даже шестизначные числа. Я сам одного уже взрослого японца мучил с калькулятором: ни разу тот не ошибся. Ну, это, конечно, не меняет сути сказанного тобой.

10 ч.

Alexey Egorov

Alexander Teterkin Будем считать, что я завысил процент и нужно указать щадящие 95%. )))

А вообще меня тревожит роль бумаги для интеллекта, я пачками её извожу, когда работаю. Вынесенная оперативная память в чистом виде, строго по Канеману...

9 ч.

Александр Тетеркин

Alexey Egorov Exocortex

1 ч.

Vasily Nekrasov

"О гигабайтах обучающих датасетах". Что такое гигабайты по нынешним меркам — ничего! Вот я сейчас для нейронки пищи для ума на 50Gb приготовил. Петабайты — вот современный масштаб.

P.S. А вообще интересно Вас читать — если я не ошибаюсь, с годик назад Вы были куда бОльшим оптимистом насчет ИИ (а я никогда нейронки истинным ИИ и не считал — так, нелинейные модели, которые хорошо справляются с некоторыми задачами при наличии дохулиона данных и вычислительных мощностей).

10 ч.

Alexey Egorov

Vasily Nekrasov Да, я был оптимистом, да я и сейчас оптимист, но я не очень люблю нейронные сети, предпочитая все прочие методы аппроксимации данных. А по специальности я занимаюсь компьютерным зрением в области контроля данных. В последнее время image processing на CUDA/GPU.

10 ч.

Vasily Nekrasov

Alexey Egorov "А по специальности я занимаюсь компьютерным зрением в области контроля данных." — ну так с этим нейронки вроде неплохо справляются. Кстати, "если в задачах распознавания обучающие примеры поворачивать на небольшой угол" — капсюльные сети Хилтона не пробовали? Вроде как они для этого особливо хороши.

9 ч.

Alexey Egorov

Vasily Nekrasov Тут всё зависит от того, какое на выходе качество нужно получить, если 0.998 и монотонность ошибки, то нейронные сети лучше не применять...

9 ч.

Александр Соколов

Нейронка, это всего лишь память искусственного интеллекта, там больше ничего нет. И распознавания там нет по понятию, так как для распознавания нужно иметь знание, а у неё нет никакого знания, она же просто сравнивает то, что запомнила с тем, что на входе и это все.

1 ч.

Vasily Nekrasov

Alexey Egorov 0.998 — это что? Доля распознанного брака? А сколько при этом хороших элементов будут объявлены браком?

@Александр Соколов — это не так. В общем случае нейронка пока ещё черный ящик — но что внутри сверхточной сети понимать уже научились хорошо. Статей куча — вот, например https://cs231n.github.io/understanding-cnn/

Теорию под это тоже подводят: https://www.di.ens.fr/~mallat/papiers/RSTA2015Published.pdf

CS231n Convolutional Neural Networks for Visual Recognition

1860 words

In reply to Евгений Волков

Онтология интеллекта — «естественного» и искусственного — 02

by Евгений Волков -

Евгений Волков

https://www.facebook.com/envolk/posts/5065350620158997

Alexey Egorov

https://www.facebook.com/alexey.egorov.1029/posts/2190959737723252

Интеллект как задача

Часть II. Устойчивость

В предыдущем наброске (alexey.egorov.1029/posts/2188155201337039) я рассмотрел такую группу признаков интеллекта как Универсальность (количество данных, их разнообразие, абстракции, преодоление комбинаторной стены и логический вывод) и пришел к выводу, что человеческое мышление по своему характеру противоположно ИИ. Теперь мы двинемся дальше и рассмотрим Устойчивость и некоторые её "характеристики".

Устойчивость решений крайне важна. Особенно сейчас, когда возникают в эксплуатации автопилоты, роевые дроны, автоматизированные процессы с автоматизированным контролем качества и прочее. В узком смысле устойчивость предполагает возможность избегать критических ошибок. В широком смысле устойчивость означает возможность контроля за сложностью и развитием ИИ как важнейшего компонента человеческой инфраструктуры. Я выделяю в устойчивости: ошибки, проблемы "обучения", работу с неполнотой и объяснимость результатов.

006. СОСТЯЗАТЕЛЬНЫЕ ОШИБКИ

Под "эффектом бабочки" понимают ситуацию, когда незначительное воздействие на систему приводит к катастрофическим последствиям. Человек предельно устойчив к ошибкам восприятия, можно (без серьезного преувеличения) говорить о монотонном характере ошибок человеческого мышления: чем точнее и полнее исходные данные, тем меньше ошибок и лучше качество возможных решений. Для ИИ ситуация противоположная — существует целый класс ошибок, которые вызываются очень незначительными отклонениями от "правильных" данных. Погуглите adversarial errors и увидите очень много интересных примеров.

В этом же пункте я хотел бы отметить, что для большинства простых ИИ классификаторов вообще невозможно классифицировать объект, который не был представлен в обучающей выборке, то есть "логика" ИИ-системы заключается в исключении возможности обработки какой-либо новизны данных, то есть состязательные ошибки, _на_самом_деле_ говорят о принципиальной невозможности обучения ИИ, когда обучение мы рассматриваем в человеческом смысле. Давайте рассмотрим подробнее на левой и правой части этого процесса, это очень важно.

007. НЕДООБУЧЕНИЕ И ПЕРЕОБУЧЕНИЕ

Недообучение критично для ИИ. И если в человеческом недообучении мы получаем градации (в зависимости от опыта и способностей) junior, middle, senior — где есть различие в понимании деталей и тонкостей, способностью владения инструментами и умением проектировать сложные системы, то недообучение в ИИ — это всегда потеря в "чувствительности" (sensitivity).

С переобучением ситуация еще критичнее, поскольку переобучить человека нельзя, а ИИ более, чем можно. Для человека в худшем случае мы будем иметь насыщение, когда усилия, затраченные на обучение будут очень мало отражаться на улучшении качества навыков. Переобучение ИИ всегда означает потерю точности решения задачи.

Но главная проблема "обучения" ИИ заключается в том, что процесс "обучения" представляет собой один и тот же цикл подстройки параметров модели, где критерием выхода из него есть некоторый максимум "обучения", который не содержится в самой модели, его можно определить только тестированием по дополнительному набору обучающих данных. И это становится критической проблемой для ИИ, поскольку кроме полной зависимости точности решения от исходного набора данных, модели ИИ не имеют внутреннего механизма оценки качества своего обучения, у ИИ нет возможности внутренней валидации моделей и возможности какой-то динамической калибровки своих параметров. Работы в этом направлении, разумеется, ведутся, но я говорю об общем случае текущих имплементаций.

008. ОБРАБОТКА ОШИБОК

В качестве промежуточного итога, можно рассмотреть разницу в обработке ошибок. Для человека ошибка — это возможность улучшать результаты, для ИИ ошибка — это итоговая характеристика архитектуры и качества обучающих данных. Человек обрабатывает ошибку тем, что исправляет её. ИИ может исправить ошибку только переобучением, которое может привести к тому, что возникнут новые ошибки, в том числе по отношению к данных, которые до переобучения обрабатывались корректно. В этом смысле человеческий интеллект снова противоположен ИИ: для человека ошибки — это способ научения, предельный уровень и качество ИИ зависит только от архитектуры, а реальный уровень достигается "шаманскими танцами с бубном" в поисках оптимального подбора параметров модели. Такого, чтобы новые данные не приводили к необходимости полного переобучения, чтобы не было недообучения и переобучения данных одновременно.

009. НЕПОЛНОТА ДАННЫХ

Отчасти я касался этой темы, когда обозначал различие между ИИ и интеллектом в требованиях к количеству и разнообразию данных. Только там речь шла об универсальность решений, в части устойчивости необходимо обратить внимание на неполноту данных, которая носит фундаментальный характер. Что я имею ввиду? Данные не даются нам в своем объективном абсолютном значении, любое значение — это результат соглашений и метрических установок. Еще большей проблемой является то, что любое значение существует в рамках некоторой модели описания реальности, то есть в рамках знаковой системы. Полнотой обладают только феномены, когда мы описываем какой-то феномен, то вынуждены пользоваться парадигмой и моделью в ее рамках. Так, например, для квантовых систем существует знаменитый эффект наблюдателя и закон соотношения неопределённостей, который запрещает одновременное "знание" значений комплементарных величин, например, координаты и импульса.

Для макроскопических устойчивых объектов строгость представления на уровне данных много меньше, но все равно необходимо понимать, что исходный набор признаков — это произвольный набор. Что существует фундаментальная методологическая проблема метаописаний, которая не решена даже на таких рафинированных объектах как математические основания. В конечном итоге это приводит к тому, что неполнота данных для человеческого интеллекта является очень удобным инструментом (это очень важно) генерализации, поэтому выбор конкретных представлений зависит от требований к задаче, а для ИИ — это непреодолимые границы предельного разнообразия решений. В очередной раз мы получаем противоположность ИИ и интеллекта.

010. ОБЪЯСНИМОСТЬ РЕЗУЛЬТАТОВ

В популярной журналистике под плохой объяснимостью результатов обычно понимают то, что нейронные сети и типичный программист не умеют разговаривать. Однако любой алгоритмический результат верифицируем и валидируем — его всегда можно повторить и проверить. Поэтому вместо объяснимости правильно писать понимаемость результатов. Трактовка. Толкование. И — да — это проблемная точка, которая своими корнями уходит в научный метод. Всё дело в том, что не существует правильных моделей, просто часть из них очень полезна в тех или иных условиях. Более того, разные задачи предполагают использование различных парадигм, где один и тот же анализируемый объект может сильно отличаться в репрезентации. Еще сильнее это проявляется в бытовой человеческой деятельности, когда требования к решению задачи полностью определяют модели и используемые инструменты, мы обсудим это чуть подробнее в пункте "умение решать задачи".

Мне очень нравится байка про физика-теоретика, который успешно объяснял поведение кривой, а потом кто-то обратил внимание, что плакат с графиком повешен "вверх ногами". Тогда физик перевернул график, взял минутную паузу и продолжил свои объяснения. Разница в объяснимости результатов между ИИ и человеком не в том, что ИИ не может интерпретировать свои результаты (есть, кстати, целое направление, которое тренирует свои модели именно на интерпретацию), а в том, что интерпретация — это неотъемлемый параллельный процесс человеческого мышления и человеческой деятельности вообще. Можно сказать, что человек находится в социальном контакте со средой, её событиями, реакциями на свои действия и решения. Человеческий мир — это мир постоянного диалога, где всё сущее — это коммуницирующие субъекты. Поэтому объяснимость результатов для человеческого интеллекта — это продолжение его существования, а не один из этапов решения конкретной задачи.

Таким образом, в части устойчивости решений мы снова получили противоположность ИИ человеческому интеллекту. ))

... to be continued ...

Александр Тетеркин

Вот что ты делаешь? Я уже «Искусственный интеллект» в кавычках стал писать.

1073 words