Машины смогут обладать сознанием. Нейронауки подскажут, как этого добиться

Машины смогут обладать сознанием. Нейронауки подскажут, как этого добиться

Представьте, что вы едете на машине. В какой-то момент загорается датчик уровня топлива, и надо бы завернуть на заправку. Как так получается, что вы — и ваша сложная комбинация нейронов — знаете о мигании датчика, а машина — нет? И почему вы знаете, что машину надо направить на ближайшую заправку, а машина сама этого не знает?

Просто у вас есть сознание, а у машины — нет. А что такое сознание, спросите вы, может быть это понятие слишком размыто, лишено смысла? Нет, не лишено, хоть и наделяется в разных дисциплинах разными значениями. Например, в медицине принято использовать понятие «сознание» для описания состояния пациента в зависимости от того, как активно он реагирует на стимулы. Активность сознания может сказать врачам, пребывает ли человек в коме, вегетативном состоянии, или, например, ступоре.

В когнитивной нейробиологии термин «сознание» принято использовать иначе. Авторы статьи в Science Станислас Деан (Stanislas Dehaene), Хакван Лау (Hakwan Lau) и Сид Куидер (Sid Kouider) предлагают посмотреть на это понятие с точки зрения применимости в области исследований искусственного интеллекта. Поняв лучше, как устроено человеческое сознание, исследователи, возможно, смогут его смоделировать и тем самым усовершенствовать наши ИИ-технологии.

Авторы статьи выделяют два типа сознания: сознание как распространение актуальной информации по всем частям мозга (С1) и сознание как рефлексия, интроспекция и отслеживание ошибок (С2). Дополнительно вводится обозначение C0 для бессознательного. Учёные утверждают, что, во-первых, многие интеллектуальные задачи человек выполняет на бессознательном уровне, а, во-вторых, для моделирования полного человеческого интеллекта одного только уровня С1 недостаточно, а необходима ещё функция самоконтроля (С2). Кроме этого, они утверждают, что текущий ИИ находится на уровне бессознательного (С0).

Рассмотрим подробнее их аргументы.

Бессознательное (С0)

Многие задачи восприятия, с которыми сейчас умеет справляться ИИ, человеческий мозг выполняет бессознательно, утверждают авторы. Например, инвариантное распознавание лиц (invariant face recognition) или распознавание речи, инвариантное относительно говорящего (speaker-invariant speech recognition).

Как учёные решили, что всё это может выполняться на бессознательном уровне? Они ссылаются на эксперимент. Испытуемым показывали последовательность изображений: маска-лицо-маска-лицо, как на Рис.1. Первое изображение лица было на экране очень недолго, так, что человек его не замечал. Потом показывали другое изображение лица в течение достаточно длительного времени. Затем испытуемых просили ответить на вопрос, принадлежит ли показанное (второе, замеченное) лицо известному человеку, и сигнализировать о решении правым или левым указательным пальцем. В ходе эксперимента выяснилось, что участники эксперимента быстрее (относительно начала демонстрации второго изображения) принимали решение, когда в качестве первого изображения им показывали фотографию того же человека (в том же самом или даже в отличном ракурсе). Это значит, что то изображение, которое было воспринято бессознательно, было распознано именно как человеческое лицо — и таким образом на момент принятия решения человек воспринимал это лицо дольше, чем другие, сначала бессознательно, а потом сознательно.

Без участия сознания человек может выполнять даже некоторые семантические операции, как, например, в таком эксперименте: людям показывали два слайда друг за другом, на этот раз со словами на них. Первый был на экране недолго и не был воспринят сознанием, а второй — был. Испытуемых просили определить, принадлежит ли объект, обозначенный словом на втором слайде, к определённой категории (например, собака к категории «животное»). При этом, на первом, не воспринятом слайде была показана «подсказка» (subliminal prime), например, слово «животное» на нем могло предшествовать слову «собака». Подсказка могла быть и неправильной, как в случае «мебель», «собака». В итоге, если подсказка на первом слайде была правильной (в нашем случае — «животное»), то время классификации собаки как животного было короче, чем в случае несогласованной последовательности («мебель»). Это значит, что человек подсознательно воспринимал смысл слов «мебель» и «животное», а не просто видел графические стимулы с текстом.

Такие подсознательные подсказки могут влиять и на принятие решений: у людей накапливается сенсорный опыт, который подсказывает вероятность правильности того или иного решения. По сути, это то же накопление информации (evidence) и тот же байесовский вывод (Bayesian inference), который использует ИИ.

Многие из человеческих бессознательных процессов были воплощены программно с помощью нейронных сетей с обратным распространением ошибки. Теперь исследователям стоит задуматься, что необходимо сделать, чтобы также реализовать уровни сознания — С1 и С2.

Рисунок 1
Рисунок 1. СверхуЛюдям показывали 2 изображения лиц подряд, при этом первое изображение оставалось на экране 50 миллисекунд и сознанием не воспринималось, а второе — 700 миллисекунд и сознанием воспринималось. Первому изображению предшествовала маска, другая маска следовала за ним (с периодами демонстрации 500 и 33 мс соответственно). Люди говорили, что видели на экране последовательность из маски и второго лица, то есть, первое лицо они не видели. Задачей участников было определить, принадлежит ли второе лицо известному человеку или нет, о чём они могли сообщить указательным пальцем правой или левой руки. В результате этого эксперимента учёные получили доказательство того, что первое изображение подсознательно воспринималось как лицо: если два изображения лиц принадлежали одному и тому же человеку, то время оценки последнего изображения уменьшалось, а если разным, увеличивалось. СнизуНа два глаза испытуемых в течение 300 мс подавались разные визуальные стимулы: на один глаз — яркие точки, движущиеся по кругу, на другой — серые, движущиеся либо в (а) одну сторону, либо в (б) случайном направлении. Люди в такой комбинации видели только яркие точки, серые точки оставались на подсознательном уровне. Затем в обоих случаях маска из ярких точек гасла, а во втором глазу появлялись серые точки, движущиеся в одном направлении. Людей просили дать ответ, в какую сторону движутся точки. В варианте (а), когда направление бессознательно воспринимаемых серых точек не менялось, когда они становились видимыми, испытуемые быстрее и точнее давали ответ на поставленный вопрос, чем когда на подсознательном уровне точки двигались в разных направлениях. Это свидетельствует в пользу накопления опыта, в массиве которого может быть и бессознательный, используемый потом для принятия решения.

Сознание С1 — Глобальная доступность релевантной информации

Чтобы принять то или иное решение, живому организму приходится продираться сквозь вероятности, образованные разными «модулями» (модуль — это абстракция, вычислительная специализированная подсистема (computationally specialized subsystem); модули в такой абстракции порождают вероятности тех или иных событий). В этом смысле, архитектура С1 развилась, чтобы избежать недостатков модулярности и параллелизма бессознательных «вычислений», оперировать между модулями. ИИ, чтобы называться интеллектом, также должен обладать этой функцией: учитывать тем или иным образом все вероятностные значения и сводить их к такому виду, чтобы в согласии с ним принять одно решение.

Слон, когда хочет пить, умудряется вычислить расположение ближайшего водопоя и начать двигаться в его направлении, даже если тот находится на расстоянии 50 километров от него. Для этого он (1) использует все доступные средства информации, включая накопленную сенсорную информацию и подсказки из памяти, (2) выбирает лучшую среди доступных опций на основе имеющейся информации, (3) придерживаются своего выбора в течение определённого периода времени и (4) координируют внутренние и внешние процессы, чтобы достичь поставленной цели.

У слонов, как у сложных организмов, сигналы от разных систем доставляются до «центрального процессора» с задержкой, и нужно эти конкурирующие входные сигналы синхронизировать — для этого они используют сознание С1. В отличие от слонов, у примитивных организмов типа бактерий не так много процессов, которые необходимо координировать, и они могут принимать решения бессознательно. Сложным организмам также часто необходимо игнорировать сиюминутные оптимальные стратегии, чтобы отдать предпочтение более долгосрочным (для чего тоже используется С1): только так слоны смогут дойти до водопоя и не остановиться по дороге. Для бактерий же это не релевантно — в их простой жизни долгосрочные стратегии не нужны.

Сознание С1 — это первое, что появилось у сложных организмов для обработки информации и компенсации модулярности и параллелизма информационных процессов. Этот тип сознания подразумевает существование «глобального нейронного рабочего пространства» (global neuronal workspace), в котором один фрагмент информации может быть выбран и удержан в памяти для последующей обработки, а также разослан другим модулям. Сознательно воспринятой можно назвать такую информацию, которая победила в соревновании за доступ к рабочему пространству, была разослана по всем модулям, и согласно которой может быть принято решение. Сознание, таким образом, это временное доминирование определённой мысли или хода мыслей над другими (см. Рис. 2, сверху). Эти мысли могут определять как физическое поведение, так и ментальное — например, загрузку информации в память.

Сознание С1 чем-то похоже на механизмы внимания. Психолог Уильям Джеймс (William James) описал внимание как процесс, «когда мозг завладевает одним из одновременно доступных объектов или ходов мыслей». Аналогично этому, в сознании С1 на вход человеку поступает множество стимулов, которые соревнуются за доминирование. Но есть принципиальная разница — внимание может работать на бессознательном уровне. Оно может быть привлечено яркой вспышкой, но восприятие той останется на бессознательном уровне.

Информация, которая поступает в сознание, обладает свойством стабильности, её не перебивают другие стимулы. Это нужно, чтобы донести информацию, находящуюся сейчас в сознании, до разных отдельных модулей.

Сознание людей и приматов ограничено — мы можем обрабатывать только один объект в данный конкретный момент времени (остальные воспринимаются бессознательно). В сознании С1 действует принцип «всё или ничего». Если говорить в терминах математики, всем нашим объектам внимания присваивается какой-то вес, но только один объект завладеет нашим сознанием — на основе этого значения. Это как горлышко бутылки, которое пропускает одни стимулы, набравшие достаточно веса, и не пропускает другие. Нейровизуализация говорит нам, что за это горлышко бутылки отвечает нейронная сеть в префронтальной коре, особенно в тех её областях, которые ответственны за высокоуровневые ассоциации. Из записей поведения отдельных нейронов ясно, что восприятие каждого объекта, например, лица человека, закодировано сигналингом определённой группы нейронов в височной доле или префронтальной коре. Когда стимул воспринят сознанием, та или иная группа нейронов, ответственная за этот стимул, сигналит, а остальные группы в это время молчат.

Кроме этого, у людей в нижней префронтальной коре есть нейронные сети, ответственные за вербальное формулирование мыслей. Если стимул достиг такого уровня, что его можно выразить, это значит, что он был обработан сознанием. Возможно, появление языка у людей сказалось на скорости обработки мыслей сознанием.

Рисунок 2
Рисунок 2. Сознательное субъективное восприятие кодируется внезапным возбуждением популяций нейронов, специфичных для конкретных стимулов, распределённых в связанных областях коры, например в латеральной префронтальной коре, передней части височной доли и гиппокампе, и отвечающих за высокоуровневые процессы. Сверху: Двум макакам в задании на пассивную фиксацию последовательно показывали изображения, разные для двух глаз — концентрическую решётку в клеточку и морду обезьяны соответственно. При этом один визуальный стимул включался позже, чем второй, и мигал с определённой частотой. В эксперименте учёные измеряли активность нейронов боковой префронтальной коры, части коры, соединённой с височной долей. Было обнаружено, что в сознание загружался именно тот стимул, который мигал — в популяциях нейронов, ответственных за этот стимул, наблюдался паттерн нейронной активности, связанный с сознательным восприятием. Почти 90 % нейронов в верхней височной борозде и нижней височной доле, электрическая активность которых была записана, отражали феноменологическое восприятие «предпочитаемого» в данный момент стимула. Это значит, что действительно есть что-то подобное «глобальному нейронному пространству», которое берет и обрабатывает отдельный стимул. Также это показывает, как за субъективный опыт могут отвечать возбуждения групп нейронов. Снизу: Испытуемым показывали разные визуальные стимулы (фотографии). Когда изображение показывали 33 миллисекунды и прикрывали маской до и после, то активности нейронов, ответственной за сознательное восприятие, почти не наблюдалось. Когда же время увеличили до 66 мс, был пройден порог «загрузки в сознание». При сознательном восприятии активность нейронов становилась выше и стабильнее в случае, когда объект на визуальном стимуле был распознан, например как показано на иллюстрации — был распознан Всемирный торговый центр на фотографии.

Сознание С2 — Рефлексия и интроспекция

Сознание С2 — это что-то типа рефлексии. Если С1 позволяет обрабатывать входные стимулы, то С2 «вычисляет вероятность», насколько суждения С1 являются правильными или ложными. Такое сознание можно назвать метасознанием.

Когда люди принимают решение, они подспудно чувствуют, насколько они в нём уверены. Мозг, помимо обработки информации, «вычисляет» процент уверенности в собственном выводе. Мы видим такие процессы, например, в обучении: человек «подсчитывает», насколько он доверяет новой информации, и сравнивает её со степенью доверия той, которую он знал до этого. Функциональное МРТ показывает, что процессы метасознания проходят в префронтальной коре: если её деактивировать, суждения об уверенности в собственных решениях пострадают.

Отдельный тип метасознания — это обнаружение ошибок. Представьте, что вы приняли какое-то решение, и тут вам сознание сигналит — ошибка! И вы «откатываете» ваше решение назад. Как так происходит, что мозг ошибается, но замечает это? Возможно, мозг продолжает накапливать сенсорную информацию даже после выдачи реакции, и если эта информация противоречит сделанному выводу, то мозг говорит — «здесь велика вероятность ошибки». Другой возможный ответ — разные сенсорные входы обрабатываются и сопоставляются сознанием с разной скоростью, и некоторые из них могут, например, быть обработаны после принятия решения.

То, что мы знаем, что что-то знаем, а чего-то не знаем, тоже относится к нашему метасознанию. Хорошая иллюстрация — нам всем знакомо чувство, когда какое-то слово вертится на языке, но вспомнить его не получается. Но мы-то знаем, что его знаем! За такие вещи отвечают структуры метапамяти в мозге. Они мониторят силу и качество следа памяти и располагаются в префронтальной коре. Без них процесс обучения был бы, наверно, невозможен: дети, находясь в мире, в котором почти всё знание — новое, используют механизмы С2, чтобы направить свои познавательные усилия в те домены, о которых они знают, что не знают.

Кроме этого, человеческий мозг должен различать, какую информацию он получил извне, а какая была сгенерирована внутренними структурами (невозможность это делать наблюдается во время галлюцинаций при шизофрении). Это тоже функция сознания С2, и нейронные сети, отвечающие за неё, находятся в передней части префронтальной коры.

Поведение, которое говорит о наличии С2, можно найти как у людей, так и у других приматов. А вот у искусственных нейронных сетей нет метасознания. Даже если они что-то выучивают, у них нет уверенности в том, что новая информация верна, за исключением некоторых моделей, которые опираются на байесовские механизмы, чтобы симулировать вероятностную интеграцию множества разномодульных подсказок. Они могут предсказать, с какой вероятностью результаты выполненного задания верны. Но такие модели редки и предлагают решения лишь для узкого круга задач.

Изображение 3
Рисунок 3. Мониторинг своего поведения
Детям одного-полутора лет был предложен следующий эксперимент. Перед ними были поставлены две непрозрачные коробки. В одну из них ведущий клал игрушку. По прошествии от 3 до 12 секунд ребёнку предлагалось вспомнить, в какой коробке игрушка (в одном варианте эксперимента коробки на это время закрывали шторкой, чтобы повысить сложность). Затем ему предлагали подумать и изменить решение, если он хочет. В другом варианте эксперимента игрушку клали в недоступный для ребёнка карман в коробке, и измеряли, сколько времени он будет упорствовать и искать игрушку в ней. Ребёнок мог при желании сказать, что он не знает, где игрушка, и «выйти из игры», обозначая, что степень уверенности в любом из решений — мала. Если ребёнок помнил верно, где игрушка, он реже прибегал к возможности изменить решение, чем когда он помнил неверно, и в случае недоступного кармана не сдавался в поиске игрушки в коробке дольше.

Как наделить машины сознанием С1 и С2?

Сознания С1 и С2 — это две непересекающиеся вещи. На графике можно было бы расположить С1 по оси абсцисс, а С2 — по оси ординат. Самоконтроль может осуществляться и для стимулов, которые не прошли через сознание С1, как, например, распознавание ошибок в слепой печати. А С1 может работать с отсутствием значения по оси С2, как в случае с ложными воспоминаниями. То, что эти подтипы сознания работают независимо, помогает им достичь некоторого рода синергии друг с другом. Так, если ребёнок знает, как хорошо он умеет умножать, делить и запоминать информацию, он сможет выбрать оптимальную для своего набора умений стратегию решения задачи.

Давайте вспомним пример с машиной. У машины загорается красная лампочка, когда в баке мало топлива — она «бессознательно» воспринимает, что бензин на нуле. Она не останавливается и продолжает ехать дальше, не заворачивает сама на заправку, даже если таковая обозначена на навигаторе. Если бы машины были наделены сознанием С1, то информация о том, что топливо заканчивается, была бы распространена глобально по всем модулям, так, чтобы они могли вместе решить проблему.

Люди довольно преуспели в наделении компьютеров способностью решать отдельные интеллектуальные задачи, но создать систему, которая бы работала сразу с несколькими интеллектуальными процессами, пока не получилось. В 60-х существовали вычислительные архитектуры, которые назывались «системами с доской объявлений» (blackboard systems). В них разные модули могли разделять свою информацию с другими так, чтобы все её понимали. В недавно разработанной архитектуре под названием PathNet, чтобы наделить программу способностью понимать, какой именно путь в её множестве нейронных сетей наиболее приспособлен для решения той или иной задачи, использован генетический алгоритм. Эта система может проводить генерализацию между разными заданиями, поэтому представляет собой шаг вперёд в задаче создания универсального ИИ.

Чтобы решить задачу с индикатором топлива, машине понадобится, аналогично одной из функций сознания С2, иметь список того, что она может делать, а что — нет. Имея образ своих возможностей, система сможет вспомнить, что у неё есть GPS-карта, на которой обозначены заправки, и остановиться на одной из них. Система самомониторинга включала бы и механизмы, которые бы постоянно пересчитывали шансы разных модулей преуспеть в различных заданиях (если какая-то деталь сломается, снизится вероятность выполнения задачи по сценарию с её задействованием).

Текущие системы машинного обучения не умеют проверять себя на ошибки, за исключением байесовских систем и PathNet, упомянутых выше. Но даже использовать обычные свёрточные нейронные сети, которые не сообщают нам вероятность того, что была совершена ошибка, можно выкрутиться — натренировать другую сеть, которая бы предсказывала вероятность ошибки. Среди ИИ-моделей есть состязательные генеративные сети, которые используют вторую сеть, чтобы она оценивала правдоподобие сгенерированного первой сетью результата. Если такую модель, работающую по принципу С2, совместить с моделями С1, мы могли бы получить ИИ, который смог бы более точно имитировать человеческое сознание.

Подводя итог

Аргументы авторов статьи незамысловаты. Отходя от доминирующих определений, они называют сознанием два типа вычислений, выполняемых в мозгу. Они также утверждают, что машина, у которой будет С1 и С2, будет полностью сознательной. Если она что-то увидит, она будет знать, что видит это. Она сможет испытывать визуальные галлюцинации, если её механизмы автомониторинга сломаются.

Некоторые могут остаться недовольными этим определением сознания. Не сводят ли авторы всё к вычислениям? А как же элемент субъективного восприятия? Учёные решают не вступать в этот извечный спор, а просто приводят аргумент: когда люди теряют способность к сознанию С1 или С2, они также теряют субъективное восприятие. Например, если у человека повреждена первичная визуальная кора, это может привести к неврологическому состоянию «слепого зрения», когда у людей есть область зрения, в которой они могут локализовать визуальные стимулы, но не могут сказать, что это такое, или предположить, что это именно это.

Итог простой: хотя столетия философского дуализма научили нас верить в то, что субъективный опыт не сводим к сигналам нейронов, эмпирика нам говорит, что всё-таки сводим.

Источник: XX2ВЕК


Читайте также: