• Краеведческие чтения: «Люди дела: купцы и промышленники»

    Краеведческие чтения: «Люди дела: купцы и промышле...

    29.11.24

    0

    888

Могут ли машины иметь сознание, по мнению нейробиологов? Похоже, что да

Могут ли машины иметь сознание, по мнению нейробиологов? Похоже, что да
  • 13.11.17
  • 0
  • 9008
  • фон:

Как бы режиссеру ни хотелось заставить вас в это верить, главным героем фильма «Из машины» 2015 года, снятого Эндрю Гарландом, является не Калеб — молодой программист, которому поручили оценивать машинное сознание. Нет, главным героем стала Ава, поразительный гуманоидный ИИ, наивный на вид и загадочный внутри. Как и большинство фильмов подобного рода, «Из машины» оставляет зрителю самому ответить на вопрос: действительно ли Ава была сознательной? При этом фильм умело избегает тернистого вопроса, на который пытались ответить громкие фильмы на тему ИИ: что такое сознание и может ли оно быть у компьютера?

Голливудские продюсеры не единственные пытаются ответить на этот вопрос. Поскольку машинный интеллект развивается с головокружительной скоростью — не только превосходя возможности людей в таких играх, как DOTA 2 и го, но и делая это без помощи человека — этот вопрос снова поднимается в широких и узких кругах.

Пробьется ли сознание в машинах?

На этой неделе в престижном журнале Scienceбыл опубликован обзор, сделанный когнитивными учеными, докторами Станисласом Дехэне, Хокваном Лау и Сидом Куайдером из французского колледжа в Калифорнийском университете в Лос-Анджелесе и Исследовательского университета PSL. В нем ученые заявили: пока нет, но есть четкий путь вперед.

Причина? Сознание «абсолютно вычисляемо», говорят авторы, потому что возникает в процессе специфических видов обработки информации, которые становятся возможными благодаря аппаратным средствам мозга.

Нет никакого волшебного бульона, никакой божественной искры — даже эмпирической компоненты («каково это — иметь сознание?») не требуется для внедрения сознания.

Если сознание проистекает чисто из расчетов в нашем полуторакилограммовом органе, то оснащение машин аналогичным свойством — лишь вопрос перевода биологии в код.

Подобно тому, как современные мощные методы машинного обучения сильно заимствованы из нейробиологии, мы можем достичь и искусственного сознания, изучая структуры в наших собственных мозгах, которые генерируют сознание, и реализуя эти идеи как компьютерные алгоритмы.

От мозга к роботу

Несомненно, область ИИ в высокой степени получила толчок, благодаря изучению нашего собственного мозга, как его формы, так и функции.

Например, глубокие нейронные сети, архитектурные алгоритмы, которые легли в основу AlphaGo, созданы по примеру многослойных биологических нейронных сетей, организованных в наших мозгах.

Обучение с подкреплением, тип «обучения», в процессе которого ИИ учится на миллионах примерах, уходит корнями в многовековую технику тренировки собак: если собака делает что-то правильно, то получает награду; в противном случае ей придется повторять.

В этом смысле перевод архитектуры человеческого сознания на машины кажется простым шагом в сторону искусственного сознания. Есть только одна большая проблема.

«Никто в сфере ИИ не работает над созданием сознательных машин, потому что нам просто не за что взяться. Мы просто не знаем, что делать», говорит доктор Стюарт Расселл.

Многослойное сознание

Самая трудная часть, которую нужно преодолеть прежде, чем приступить к созданию мыслящих машин, заключается в том, чтобы понять, что такое сознание.

Для Дехэне и коллег сознание — это многослойный конструкт с двумя «измерениями»: С1, информация, которая хранится в готовом виде в сознании, и С2, способность получать и отслеживать информацию о самом себе. Оба они важны для сознания и не могут существовать друг без друга.

Допустим, вы управляете автомобилем и загорается маячок, предупреждающий о малом остатке бензина. Восприятие индикатора — это C1, мысленное представление, с которым мы можем взаимодействовать: мы замечаем его, действуем (заправляемся) и рассказываем об этом позже («Бензин закончился на спуске, повезло — докатился»).

«Первое значение, которое мы хотим отделить от сознания, — это понятие глобальной доступности», объясняет Дехэне. Когда вы осознаете слово, весь ваш мозг понимает это, то есть вы можете пропускать эту информацию через различные модальности.

Но С1 — это не просто «ментальный альбом». Это измерение представляет собой целую архитектуру, которая позволяет мозгу привлекать несколько модальностей информации из наших чувств или, например, из воспоминаний о связанных событиях.

В отличие от подсознательной обработки, которая часто опирается на определенные «модули», компетентные в решении определенного набора задач, С1 является глобальным рабочим пространством, которое позволяет мозгу интегрировать информацию, принимать решение о действии и следовать до конца.

Под «сознанием» мы имеем в виду определенное представление, в определенный момент времени, которое борется за доступ к умственному рабочему пространству и побеждает. Победители распределяются между различными вычислительными схемами мозга и хранятся в центре внимания на протяжении всего процесса принятия решений, определяющих поведение.

Сознание С1 стабильно и глобально — задействуются все связанные схемы мозга, объясняют авторы.

Для сложной машины вроде умного автомобиля С1 — это первый шаг к решению надвигающейся проблемы, такой как низкий запас топлива. В данном примере индикатор сам по себе является подсознательным сигналом: когда он загорается, все остальные процессы машины остаются непроинформированными, а автомобиль — даже будучи оснащенным новейшими средствами визуальной обработки — без колебаний проносится мимо заправочной станции.

С С1 топливный бак уведомит компьютер автомобиля (позволит индикатору проникнуть в «сознательный разум» автомобиля), чтобы тот, в свою очередь, активировал GPS для поиска ближайшей станции.

«Мы полагаем, что машина преобразует это в систему, которая будет извлекать информацию из всех доступных ей модулей и делать ее доступной для любого другого модуля обработки, которому эта информация может быть полезна», говорит Дехэне. «Это первое чувство сознания».

Мета-познание

В некотором смысле С1 отражает способность разума извлекать информацию извне. С2 же уходит в интроспективу.

Авторы определяют вторую сеть сознания, С2, как «мета-познание»: оно рефлексирует, когда вы что-то узнаете или воспринимаете либо просто делаете ошибку. («Думаю, я должен был заправиться на прошлой станции, но забыл»). Это измерение отражает связь между сознанием и чувством собственного «я».

С2 — это уровень сознания, который позволяет вам чувствовать себя более или менее уверенным в принятии решения. С точки зрения вычислительной техники это алгоритм, который выводит вероятность того, что решение (или вычисление) будет правильным, даже если оно часто воспринимается как «шестое чувство».

С2 также запускает корни в память и любопытство. Эти алгоритмы самоконтроля позволяют нам знать, что мы знаем и что не знаем, — это «мета-память», которая помогает вам нащупать нужное слово «на кончике языка». Наблюдение за тем, что мы знаем (или не знаем) особенно важно для детей, говорит Дехэне.

«Юным детям абсолютно необходимо следить за тем, что они знают, чтобы учиться и проявлять любопытство», говорит он.

Два этих аспекта сознания работают сообща: С1 вытягивает релевантную информацию в наше рабочее умственное пространство (отбрасывая другие «возможные» идеи или решения), а С2 помогает с долгосрочной рефлексией о том, привело ли сознательное мышление к полезному результату или ответу.

Возвращаясь к примеру с индикатором малого топлива, С1 позволяет автомобилю решить проблему моментально — эти алгоритмы глобализируют информацию, и автомобиль узнает о проблеме.

Но чтобы решить проблему, автомобилю понадобится каталог «познавательных способностей» — самоосознание того, какие ресурсы легко доступны, например, GPS-карта заправочных станций.

«Автомобиль с самопознанием такого рода — вот что мы называем работой с С2», говорит Дехэне. Поскольку сигнал доступен глобально и отслеживается так, будто машина смотрит на себя со стороны, автомобиль озаботится индикатором малого запаса топлива и поведет себя так же, как человек — снизит потребление топлива и найдет АЗС.

«Большинство современных систем машинного обучения не имеют никакого самоконтроля», отмечают авторы.

Но их теория, похоже, идет по верному пути. В тех примерах, где была имплементирована система самонаблюдения — в виде структуры алгоритмов или отдельной сети — ИИ вырабатывали «внутренние модели, которые были мета-познавательные по природе, что позволяло агенту выработать (ограниченное, имплицитное, практическое) понимание самого себя».

К сознательным машинам

Будет ли машина, обладающая моделями С1 и С2, вести себя так, будто обладает сознанием? Очень вероятно: умный автомобиль будет «знать», что что-то видит, выражать уверенность в этом, сообщать об этом другим и находить наилучшее решение проблемы. Если его механизмы самонаблюдения сломаются, он также может испытать «галлюцинации» или визуальные иллюзии, свойственные людям.

Благодаря С1, он может использовать имеющуюся у него информацию и использовать ее гибко, а благодаря С2, он будет знать пределы того, что знает, говорит Дехэне. «Думаю, эта машина будет обладать сознанием», а не просто казаться таковой людям.

Если у вас остается ощущение, что сознание — это гораздо больше, чем глобальный обмен информацией и самонаблюдение, вы не одиноки.

«Такое чисто функциональное определение сознания может оставить некоторых читателей неудовлетворенными», признают авторы. «Но мы пытаемся предпринять радикальный шаг, возможно, упрощая проблему. Сознание — это функциональное свойство, и по мере того, как мы продолжаем добавлять функции машинам, в определенный момент эти свойства будут характеризовать то, что имеем в виду под сознанием», заключает Дехэне.

Источник