Выбери формат для чтения
Загружаем конспект в формате docx
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
ФИЛОСОФИЯ ТЕХНИКИ
О СТАНОВЛЕНИИ ФИЛОСОФИИ ТЕХНИКИ
Область философских интересов человека изменяется от одной эпохи к другой, с ростом значения той или иной области деятельности человека она становится все более самостоятельной, начиная привлекать к себе особое внимание. Человек не может обойтись без тщательного анализа того, что доминирует в его жизни. Нечто аналогичное происходило и с техникой. Не сразу человеческая цивилизация стала технической, случилось это где-то к XX веку. Именно в это время появились первые работы по философии технике, принадлежали они немецкому философу Эрнсту Каппу и русскому инженеру Петру Климентьевичу Энгельмейеру. Оба мыслителя отлично сознавали, что в новых условиях нельзя ограничиваться односторонним, узким пониманием техники. Как отмечал Энгельмейер, необходимо «пытаться видеть в перспективе, каковы должны быть формы взаимодействия между техникой и обществом». Понимание техники в широкой перспективе невозможно без особой философии — философии техники, которая занимается осмыслением технической деятельности человека, ее значения и перспектив.1
На протяжении многих десятилетий техника рассматривалась как продолжение биологических возможностей человека. В числе предшественников современного философского анализа техники можно назвать Э.Каппа, Ф. Дессауэра, М. Хайдеггера, К. Шиллинга. Основная идея Э. Каппа заключается в стремлении понять феномен техники на базе «органопроекции», т.е путем ее выведения из развития самой природы. Техника представляет собой некую искусственную среду, но она идет от природы, а вовсе не является творением субстрата.
ЧТО ТАКОЕ ТЕХНИКА?
Как только мы обращаемся к философии техники, на нас сразу же обрушивается камнепад проблем. На первый взгляд, все обстоит просто. Но чем глубже мы вникаем в суть дела, тем больше проблем и неясностей.
На самом деле, разве не достаточно определить технику как совокупность технических устройств, орудий труда, машин, станков, сооружений? Вроде бы самодостаточны и другие определения техники, например такие: техника — это инструмент, который использует человек для удовлетворения своих потребностей; техника — это использование природы в интересах человека; техника — это практическое воплощение наук, особенно естественных; техника — это двигатель прогресса. Все правильно, но недостаточно.
Машина, по мнению первых технофилософов, проекция органов человека на природный материал.2
Философы техники обращают внимание на отрицательные последствия развития техники: разрушается природа (экологический кризис), обедняется атмосфера ценностей человека, общество становится большой машиной, мегамашиной, в которой многим очень неуютно, техника становится вроде бы самостоятельной силой, которая тащит человека невесть куда. Эти философы задают правомерный вопрос: «А действительно ли человек понимает, что такое техника?» Логика этих философов безупречна: если бы человек понимал технику, то он сумел бы как воспользоваться ее достоинствами (их никто не отрицает), так и не допустить отрицательные последствия. Но этого нет, следовательно, мы плохо понимаем технику. Выход один — настойчиво развивать философию техники.
Итак, пока мы не готовы дать углубленное понимание, определение техники. Видимо, ограничимся предположением, что по аналогии с языком техника есть сложный знак, символ всей деятельности человека, его ценностей.
ТЕХНИКА КАК ОСВОЕНИЕ ВЕЩЕСТВА. ЭНЕРГИИ,ИНФОРМАЦИИ
Характеризуя специфику техники, как правило, подчеркивают, что в ней осваивается вещество, энергия и информация. Вещество (сырье, материалы) находятся в природе в «связанном» состоянии, поэтому его добывают, выделяют, производят в химико- технологических производствах.
Впрочем, часто человека интересует не вещество, а скрытая в нем энергия. Разработано много способов получения энергии, наиболее впечатляющими являются с этой точки зрения различного рода электростанции. Благодаря электророзеткам в наших квартирах мы имеем возможность подключаться к источникам электромагнитной энергии.
Наконец, еще одно достоинство техники — возможность хранения, обработки и передачи информации, т.е. различных сведений. Речь идет об электронно-вычислительной технике и реализуемых на ее основе информационных технологиях. Как отмечал Норберт Винер, стоявший у истоков современной кибернетики (науки об управлении сложными системами), «информация есть информация, а не материя и не энергия».
Замечание Винера интересно тем, что оно указывает на необычность использования современной техникой природного материала. Оказывается, манипулировать можно не только веществом и энергией, но и информацией. Что такое информация?
Из философии языка известно, что информация содержится в предложениях. Предложение можно высказать (звуками), записать буквами (на бумаге, камне и т.д.). Как выяснилось, его можно записать едва ли не на любом физическом носителе. Но особенно эффективной оказалась магнитная запись. Развитие этой технологии и привело к расцвету информационной техники, что особенно зримо выразилось в превращении персонального компьютера в предмет домашнего обихода. Как видим, информация немыслима вне языка. Но язык — эго весь мир человеческого представления в знаковой форме. В гой или иной степени это относится и к информационной технике. Информационная техника есть символ деятельности человека.
Обратите внимание, как хитро использует человек природный материал в информационной технике — он записывает на нем посредством определенного языка в виде сведений, информации свой человеческий мир. 'Гак человек умудряется выразить себя в природном материале.
ОБЗОР: ИНТЕРПРЕТАЦИИ ПРИРОДЫ ТЕХНИКИ
Рассмотрим теперь интерпретации техники профессиональными философами. Любое понимание техники есть своеобразная интерпретация, универсального понимания техники не существует.
* Начнем, как обычно, с античности. Когда на вопрос Херефонта жрица-прорицательница Пифия в храме Аполлона в Дельфах ответила: «Сократ превыше всех мудростью», и это было доведено до Сократа, то тот, как бы проверяя жрицу, пошел смотреть на работу ремесленников. Убедившись, что ремесленники превосходят его в конкретном знании, Сократ, общего, идей. Аристотель придерживался также точки зрения Сократа: «наставники более мудры не благодаря умению действовать, а потому что они обладают отвлеченным знанием и знают причины*. Для греков технэ (искусство, умение) ниже мудрости и ключом для понимания его, технэ, является знание общего.
• В средние века техника считается отблеском божественного творчества, с чем ее и сопоставляют. Техника по-прежнему сохраняет вторичное значение.
• В Новое время человек видит в технике преимущественно силу своего собственного разума и своих инженерных способностей. Техника выступает как прямое продолжение науки и желания человека господствовать над природой. Техника сама приобретает характер силы, господствующей над человеком. Маркс приходит к выводу, что самым изначальным базисом общества оказываются производительные силы, средства производства, а это — техника.
• Особый интерес представляет для нас интерпретация техники в XX веке, ведь только в то время философия техники стала самостоятельной философской дисциплиной.
• Испанский философ Ортегаи-Гассет указывал в связи с анализом техники на двойственность человека — он отличен от природы и вместе с тем посредством техники он с ней сливается.
Вот здесь-то и скрыта одна из проблем: человеку надо опасаться того, что он «потеряется» в технике, забудет о себе. Эту важную мысль очень ясно формулировал Карл Ясперс: «...техника двойственна... Поскольку техника сама не ставит перед собой целей, она находится по ту сторону добра и зла или предшествует им. Она может служить во благо или во зло людям. Она сама по себе нейтральна и противостоит тому и другому. Именно поэтому ее следует направлять».
Итак, и Ортегаи-Гассет и Ясперс считают, что содержание технике придает сам человек. Вопрос в том, какое именно содержание человек придает технике, не готовит ли он сам себе катастрофу?
Лидер феноменологов Гуссерль считал, что человек придает технике негативное содержание. Происходит это следующим образом: богатый жизненный мир человека переводится в научные понятия, затем на основе этих понятий создают технику. о итоге забывают о жизненном мире человека. Так развивается кризис человека и его науки, и его техники. Есть ли выход из этого затруднительного положения? Да, наверно, есть, но для этого и наука, и техника должны сотворяться как полноценные знаки жизненного мира человека. Техника — это обычно бедный знак нашей жизни, сю следует наполнить этой жизнью. Для этого нужна хорошая, по Гуссерлю, феноменологическая философия.
• Лидер герменевтов Хайдеггер не меньше Гуссерля недоволен современным состоянием техники. Он считал, что человек, создав технику, поставив ее перед собой, не удосужился продумать вопрос о ее природе. Между тем «сущность техники вовсе не есть что-то техническое...». Хайдеггер предлагает вновь и вновь возвращаться к углубленному анализу природы техники. Его мечта состоит в том, чтобы техника была сродни искусству. Человек использует в искусстве природные материалы, но таким образом, что именно истинно человеческое определяет лицо искусства.
• Философы-аналитики обычно рассматривают технику не саму по себе, а в цепочке: наука — логика — язык — техника — техническая рациональность — информационная интерпретация. Это означает, что техника рассматривается как прямое продолжение той рациональности, которая заключена в науке, логике, языке. Сама эта рациональность понимается в русле информационных наук. Философы-аналитики смотрят на будущее техники намного более оптимистично, чем феноменологи и германе вты.
• Из русских философов конца XX века интересный подход к пониманию техники разработал Г.И.Щедровицкий. Суп» развиваемой им философии он называл мыследеятельностью. Это означало, что сначала нужно выработать правильную мысль (что достигается в процессе проведения многодневных семинаров), а затем разработать, причем непременно, программу действий. Щедровицкий был единственным, кто прямо и без обиняков заявлял, что современная философия должна быть организована гак же, как технические науки. В таком случае она действительно приобретает практический характер.
• Итак, все философы техники едины в одном: техника есть знак самого человека, но далеко не всегда удачный знак. В философии все видят ключ к гармонии техники и человека. Человек не должен в технике забывать самого себя.
• МОЖНО ЛИ ЗАМЕНИТЬ ЧЕЛОВЕКА ТЕХНИЧЕСКИМ УСГРОЙСГВОМ?
Выше неоднократно подчеркивалось, что значение техники в жизни человека постоянно возрастает. В связи с этим возникает вопрос о возможности замены человека техникой. Не случится ли так, что техника заменит самою человека, частично или — о, ужас! — даже полностью?
Данный вопрос обсуждался мною-мною раз. Наиболее распространенная точка зрения признает заменимость человека в том случае, когда он сам выступает как техническое устройство. Гак, на производствах внедряют новую технику, а часть людей остается не у дел. Причина всегда одна и та же: замещаемый человек рядом с машиной выглядит как несовершенное устройство. Например, внедрение новой печатной техники оставляет без работы наборщиков, грузчики не выдерживают конкуренции с погрузочно-разгрузочной техникой, а счетоводы с персональными компьютерами.
В то же время техника не составляет человеку конкуренции там, где человек проявляет свои способности, а именно способность к выработке ценностей, целей действий в принципиально непредвиденных обстоятельствах. Машины не ставят цели, не добиваются исполнения намерений, они реализуют вложенные в них человеком программы, не более того.
Техника XX века поставила человека перед выбором: либо ты — личность с развитыми способностями, использующая технику для достижения целей и реализации ценностей, либо ты функционируешь подобно техническому устройству. В этом случае рано или поздно ты будешь замещен техникой. Будь человеком, и никакая техника тебе не страшна.
ТЕХНИКА И ЭТИКА
Из сказанного можно сделать вывод: ни в коем случае нельзя допустить, чтобы техника лишила нас статуса человека. Как этого добиться? Что значит быть человеком в технической цивилизации? Самый интересный, с нашей точки зрения, ответ на эти вопросы заключается в требовании быть человеком моральным. В конце XX века требование быть моральным означает быть ответственным. Этика ответственности — это ключ к разрешению различного рода кризисов, связанных с бесконтрольным развитием техники. Человек может сделать больше, чем он имеет на то моральное право. В этой связи и возникает потребность в особой этике, ориентированной на содержание технической деятельности человека.
Этика ответственности требует тщательной моральной интерпретации решений и действий, предпринимаемых человеком. Это — изначальная ориентация на добро, на диалог с другими людьми, в котором каждому надлежит занять достойное место. Техника является средством для достижения добра. А природа добра определяется в процессе интерпретации. Строго говоря, здесь нет и не может быть окончательных решений, кроме одного: стремись к максимальной ответственности. Вместе с тем, как свидетельствуют многочисленные декларации, коммюнике конференций ученых и специалистов области техники, собраний сообществ технических работников, многие ценности приобрели характер устойчивых моральных норм.
Обычно отмечается, что частные, локальные интересы не могут иметь преимущества перед всеобщими требованиями людей, их стремлением к справедливости, счастью, свободе, безопасности, экологическому совершенству и здоровью. Пи один из аспектов техники не является морально нейтральным. Недопустимо делать человека придатком машины. Каждая техническая новация должна пройти проверку на предмет того, действительно ли она способствует развитию человека как творческой ответственной личности.
Каков заслуживающий одобрения моральный облик техника, инженера? Он — рационалист, обладает набором технических навыков и умений, имеет склонность к изобретательской деятельности, настойчив, скрупулезен, трудолюбив, бдителен, предан своему делу, искренен, правдив.
Интересно, что различного рода моральных кодексах инженеров и техников приоритет отдается базисным ценностям: честности, справедливости, счастью и свободе. Па последующее место ставятся профессиональные добродетели: солидарность с коллегами, аккуратность и тщательность в работе. Порой утверждается, что достаточно, если мораль инженера базируется на Нагорной проповеди Христа.
Итак, техническая деятельность человека не является нейтральной в этическом отношении. Моральным идеалом технической деятельности человека является этика ответственности. Техника — это символ этики человека, как ее чистоты, так и нечистоплотности.
ОСНОВНЫЕ выводы
• Техника как совокупность технических устройств есть знак всей деятельности человека, его ценностей.
• В технике человек часто вредит себе, он забывает себя.
• Человек как существо, вырабатывающее цели и ценности, "с может быть замещен техникой. Техникой может быть заменен человек, выполняющий функцию технического устройства.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
Речь идет о делении, предложенном американским философом Джоном Сёрлом, (о котором мы еще сегодня поговорим) на сильный и слабый искусственный интеллект, или на сильное понимание искусственного интеллекта и слабое понимание искусственного интеллекта. О чем же идет речь? Сильный искусственный интеллект буквально означает мыслящую программу. Это значит, что некоторый код, некоторое программное обеспечение, созданное людьми, в процессе своего функционирования порождает мышление и сознание.
Слабый искусственный интеллект — это куда более скромное понимание искусственного интеллекта. Оно утверждает лишь, что искусственный интеллект — это инструмент, это средство, которое помогает людям быстро решать интеллектуальные задачи. Что значит "интеллектуальная задача"? Та задача, для которой мы обычно используем интеллект, мышление. Что такое интеллект, мы с вами поговорим чуть-чуть дальше, но, говоря о слабом искусственном интеллекте, принципиально понимать, что это не мыслящая вещь, это лишь орудие. Калькулятор может помочь нам посчитать, но он сам по себе не считает, он не мыслит. И в этом смысле слабый искусственный интеллект — это просто факт. Мы постоянно пользуемся компьютерами, они вокруг нас. Разного рода машины, программы давно плотно вошли в человеческую жизнь, и мы постоянно используем их для облегчения своей интеллектуальной деятельности. А вот мыслят ли эти компьютеры и способны ли они вообще мыслить — это уже философская проблема. И вот именно этой проблемой в особенности будем мы с вами сегодня заниматься.
Чтобы быть чуть более конкретными, давайте обратимся к следующему вопросу: может ли программа иметь чувство юмора? В таком виде он остается несколько непрозрачен, я предлагаю разделить его на два следующих. Первый: может ли программа смешить людей? Я по своему опыту могу сказать, что меня часто смешили программы. Когда я играл в компьютерные игры, часто персонажи делали какие-нибудь отличные шутки, и это было действительно смешно. И сейчас периодически я могу столкнуться с тем, что в Интернете появляется какая-нибудь смешная игра, или смешной чат-бот, или что-нибудь в этом роде. Поэтому меня нетрудно насмешить программе, и я подозреваю, есть много таких людей. А вот следующий вопрос: может ли программе быть смешно? Почувствуйте разницу. Когда мы говорим о том, что программа смешит людей, мы можем конкретно заметить то, что люди смеются, взаимодействуя с программой. И можно сказать, что программа является причиной. Можно ли на этом основании сделать вывод, что самой программе смешно? Мы могли бы сказать, что давайте сделаем смеющуюся программу, но подумайте: если у вас в компьютерной игре смеется персонаж, разве это означает, что программе действительно смешно? Или если, допустим, ваши компьютеры выводят улыбку на экран — означает ли это, что вашему компьютеру смешно?
Чтобы понять, почему это дополнительная проблема, посмотрим на себя. Обычно мы можем улыбаться, когда нам не смешно, и можем смеяться, когда нам не смешно. И, напротив, когда нам смешно, мы можем сдерживаться, и когда мы хотим улыбаться, мы тоже можем сдерживаться вполне себе. Поэтому просто на основе того, что мы что-то видим, трудно сказать, смешно программе или не смешно. Это, скорее, нечто, что мы видим изнутри. И вот проблема о том, есть ли у компьютера какое-то "изнутри", есть ли что-то в их сознании, есть ли у них вообще сознание — это проблема, которая интересует философов.
Часто они формулируют так: может ли программа мыслить? Заметим, что этот вопрос имеет не только абстрактное значение. И сегодня мы с вами поговорим также о том, а что значит для программы быть моральной? Может ли программа действовать как некоторое моральное существо? Может ли она совершить преступление? Может ли она помочь человеку спасти его так, как спас бы его человек? Так, чтобы мы могли сказать: хорошая, добрая, прекрасная программа. Возможно ли это и в каких условиях это возможно?
Другой вопрос, который возникает: а как себя вести, если все-таки есть некоторые машины, которые можно назвать моральными объектами, моральными субъектами — существами, которые могут действовать и оценивать других с точки зрения моральных категорий: хорошо или плохо? И другой вопрос: как мы должны программировать моральные машины? Как они должны себя вести с нами и между собой? Какие этические принципы мы должны в них встроить? Вот об этих вопросах мы и поговорим сегодня
КАК ПОНЯТЬ, ЧТО МАШИНА МЫСЛИТ?
Итак, мы остановились с вами на вопросе, как понять, что машина мыслит. Нам очевидно, что мы сейчас мыслим. Однако как определить, что мыслит кто-то, кроме нас? Кто-то, вот кроме «я», кроме меня, уникального и единственного? Некоторых людей так поражает этот вопрос, что они рассматривают возможность «А вдруг вокруг меня все роботы? А вдруг только у меня картинки в голове, а все остальные ходят, и у них там вообще пусто, темнота?». Как же большинство людей все-таки делают вывод о том, что у других есть сознание?
Обычно это объясняют таким понятием, как аналогический вывод. Мы видим, что другие люди очень похожи на нас, они выглядят похоже на нас, они двигаются похоже на нас. В некоторых ситуациях они действуют, как действовали бы мы, и, более того, мы знаем, что у нас есть мышление, и именно оно позволяет нам так действовать. Если бы у нас не было никакого сознания, мы не могли бы совершать эти поступки. Поэтому, глядя на других людей, мы тоже предполагаем, что у них есть сознание. И, разумеется, возникает вопрос, а как определить, мыслит ли машина. Можно поставить вопрос относительно поведения.
Однако тут есть некоторая трудность, потому что мы сочтем человека мыслящим, даже если он не может двигаться, даже если он почти не может двигаться, как Стивен Хокинг, мы все равно можем счесть, что он — мыслящий. А вот как нам понять, мыслит ли машина, на основе некоторого теста?
Такой тест был предложен математиком, логиком Аланом Мэтисоном Тьюрингом. И этот тест получил название «тест Тьюринга», хотя сам Тьюринг назвал его несколько иначе, о чем мы сейчас поговорим. Наиболее известные статьи Тьюринга на эту тему — это статья 1950 года «Вычислительные машины и разум», где он подробно изложил идею «теста Тьюринга», хотя называл ее по-другому. В 1952 году он выпустил статью «Могут ли машины мыслить?», в которой было предложено огромное количество ответов на возражения оппонентов, на критику теста Тьюринга. Мы с вами рассмотрим и тест Тьюринга, и критику теста Тьюринга. Итак, Тьюринг поставил четкую задачу: необходимо отказаться от неопределенного вопроса о мышлении машин. Нужно понять, каков может быть эмпирический критерий разумности машин. Не мыслят ли машины ли вообще? А как эмпирически можно проверить, разумна машина или не разумна?
Тьюринг предложил использовать так называемую игру в имитацию. Изначально это была игра, в которую играли люди. Однако Тьюринг предложил, чтобы в нее поиграли компьютеры. В этой игре есть три участника, которые общаются посредством текстовых сообщений. Судья, который является человеком, компьютер и человек. У каждого участника своя цель. Судья должен вычислить, кто из собеседников компьютер. Человек должен помочь судье, подсказать ему, сделать так, чтобы он вычислил человека правильно. Компьютер должен имитировать человека, то есть по сути он должен ввести в заблуждение судью. Он должен притвориться человеком. Трудно говорить такие слова о компьютере, но цель программы состоит в том, чтобы судья принял ее за человека. И что же сказал Тьюринг? Тьюринг сказал, что машина разумна, если она может успешно имитировать человека.
Возникает вопрос: а что значит «успешно»? Каковы критерии успешности? Обычно с тестом Тьюринга связывают вполне себе конкретные критерии. Эти критерии взяты из фразы самого Тьюринга, из его предсказания. Вот это предсказание. Тьюринг сказал, что через 50 лет, то есть примерно в начале второго тысячелетия нашей эры, компьютер, по крайней мере, в 30 % случаев, а может быть, и больше, сможет успешно имитировать человека, если игра в имитацию длится около пяти минут. Насчет того, сбылось ли предсказание Тьюринга или не сбылось, есть два мнения. Одно мнение говорит, что Тьюринг, как известно, ошибся. В 2000 году не было такой программы. Но есть и другое мнение, которое говорит, что «около 50 лет, или лет через 50» не означает ровно через 50, и поэтому, может быть, через 60, может быть, через 70. Тьюринг не имел в виду буквально второе тысячелетие. Он просто сказал, что примерно через 50 лет такое станет возможным. И, надо сказать, что буквально в 2014 году мир обошла новость о том, что некоторая компьютерная программа смогла прикинуться украинским мальчиком, который плохо знает английский, и якобы прошла тест Тьюринга. Вы сами можете проверить в Интернете эту историю и посмотреть, как там обстояло дело. 7 июня 2014 года, по сообщению британского Университета Рединга (англ. University of Reading), в тестировании, организованном Школой системной инженерии (англ. School of Systems Engineering) при университете, полноценный тест Тьюринга впервые за шестьдесят пять лет существования был пройден с помощью программы «Женя Густман» (англ. Eugene), разработанной в Санкт-Петербурге проживающим в США выходцем из России Владимиром Веселовым и проживающим в России выходцем из Украины Евгением Демченко.
В тестировании участвовали пять суперкомпьютеров. Испытание представляло собой серию пятиминутных письменных диалогов. Тест Тьюринга считался пройденным, если компьютеру удалось бы вводить собеседника (человека) в заблуждение на протяжении хотя бы 30 % суммарного времени. Суперкомпьютер Eugene c результатом 33 % и стал тем устройством, которое искусственным путём воссоздало человеческий интеллект — в данном случае, тринадцатилетнего подростка из Одессы, который «претендует на то, что знает всё на свете, но в силу своего возраста не знает ничего». Это вторая победа программы, однако в 2012 году на конкурсе в честь юбилея Алана Тьюринга она не добрала 0,8 % для полного прохождения теста.
Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Тьюринг задался целью определить, может ли машина мыслить.
Стандартная интерпретация этого теста звучит следующим образом:
Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор.
Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест. Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника). Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило необходимо, потому что они реагируют гораздо быстрее, чем человек.
Прохождение теста Тьюринга в настоящее время на стало должной сенсацией, так как сейчас существует множество чат-ботов и «ответчиков», реализующих более практические задачи в процессе живого общения с человеком. Тем не менее, его можно считать важным формальным этапом развития компьютерных технологий.
Развитие этой отрасли имеет важные экономические последствия, так как теоритечески позволит исключить человека во многих областях, начиная с многочисленных колл-центров.
Тьюринг сказал, что буквально к концу XX века для людей перестанет быть странно говорить о мыслящих машинах. И давайте подумаем, а прав ли Тьюринг? Мне кажется, в его словах есть значительная доля истины, потому что мы давно привыкли говорить, что компьютер задумался. Метафорически. Или компьютер быстро соображает. Это значит: «О, какой у тебя быстрый компьютер, какой он у тебя сильный, как он хорошо у тебя работает!». Более того, мы начали переносить компьютерные метафоры на человека: «Что ты так тормозишь?» или «Он завис». Любопытным образом нам сейчас гораздо более просто говорить о том, что компьютер думает, нежели чем это было во времена Тьюринга, и это предсказание Тьюринга — вы можете вынести свое суждение, — но с моей точки зрения сбылось вполне.
Давайте с вами согласимся, что и человек на некоторые вопросы ответить не может. Скажите мне: какая постоянная Планка? А какова 350-я цифра в числе π после запятой? Ну, тоже мы с вами не знаем, правда? Но мы все-таки люди, мы обладаем разумом. Может быть, и машине Тьюринга стоит сделать небольшую скидку? Может быть, если она не отвечает на какие-то вопросы, это не означает, что она вообще не мыслит? Другое возражение особенно интуитивно, оно называется возражением леди Лавлейс, которой приписывается, собственно говоря, эта идея. Леди Лавлейс считается первым программистом. Она жила в XIX веке и сделала много для развития того, что в будущем стало компьютерной наукой. Заметим, что я не оговорился: Леди Лавлейс — не просто первый программист-женщина, она просто первый программист. Ну или, как хотели бы феминистки, может быть, программистка. Это уже на ваш вкус оставляю. Важно, однако, что леди Лавлейс сказала: машина не может создавать что-то новое. Машина не способна на подлинную творческую спонтанность, машина делает то, что мы в нее вложили. Все что машина может сделать, мы уже заранее знаем.
Китайская комната
Итак, мы с вами остановились на вопросе, может ли программа обладать сознанием. Тест Тьюринга вдохновил очень многих исследователей искусственного интеллекта на то, чтобы создать программу, проходящую этот тест Тьюринга. Однако же сам Тьюринг говорил именно о разумности машины, он ничего не говорил о сознании. В то время как многие, стремящиеся создать программу, проходящую тест Тьюринга, претендовали именно на то, что эта программа будет иметь сознание. Долгое время этот спор не имел под собой каких-то сильных интуитивных аргументов, которые были бы ясны и очевидны, даже, может быть, неискушенному слушателю.
Такой аргумент предложил американский философ Джон Сёрл. Этот аргумент получил название аргумент китайской комнаты и представляет собой по сути мысленный эксперимент, опубликованный Джоном Сёрлом в 1980 году в статье «Сознание, мозг и программы».
Итак, что же такое "китайская комната"? Давайте поговорим о том, что в ней есть. Во-первых, в китайской комнате есть Джон Сёрл. Джон Сёрл, который парадоксальным образом не знает китайский язык, хотя комната китайская. Почему же она китайская? Потому что в ней есть корзины с китайскими иероглифами. Ну, допустим, с дощечками, на которых нарисованы китайские иероглифы. Такие тоненькие дощечки, на каждой по иероглифу. И главное, что там есть — все китайские иероглифы, то есть очень много китайских иероглифов. Кроме того, там есть очень толстая книга. Я бы сказал, что большую часть такой комнаты, наверное, занимала бы эта книга. Это книга правил. Мы чуть дальше разберемся с тем, для чего она нужна. Кроме того, в комнате есть входное и выходное отверстие. Во входное отверстие Сёрлу передают китайские таблички, через выходное отверстие он выдает другие китайские таблички. Как же китайская комната работает? Сёрл в китайской комнате является действующим лицом. Что же он делает? Во-первых, он принимает таблички на входе. Допустим, он принимает на входе три таблички с вот такими иероглифами. Сёрл далее смотрит в книгу правил. Листает, листает, листает книгу правил, находит там страницу, на которой изображены эти три иероглифа и дано некоторое правило: на такие-то три иероглифа выдавать такие-то пять иероглифов. Он обращается к своим табличкам с иероглифами, находит эти пять иероглифов, собирает их вместе и выдает их через выходное отверстие. Заметим, что Сёрл не знает китайского, и поэтому он не знает, что первые три иероглифа означают «Как поживаете?», а последующие — «У меня все хорошо. А у тебя?». Он просто манипулирует табличками, он не понимает, что значат эти таблички, каков смысл знаков, которые на них изображены. Таков, собственно говоря, мысленный эксперимент с китайской комнатой.
Что же он призван показать, в чем смысл аргумента китайской комнаты? Сёрл говорит, что его действия подобны функционированию программы. Он манипулирует символами. Получает некоторые символы на входе, информацию, обрабатывает их согласно своим правилам, алгоритмам, и выдает некоторые символы на выходе. Но при этом самое главное, что он ровным счетом ничего не понимает. Он не имеет ни малейшего представления о том, что же значат эти символы. Он просто манипулирует ими, согласно своей книге правил. Что же это значит в каком-то большом контексте? Это означает, что программа, выдающая правильные ответы, вовсе не обязательно понимает, что означают эти ответы. Что сделал Сёрл? Он как бы поставил себя на место программы. Он сказал: «Да, трудно решить вопрос о том, мыслит программа или нет. А давайте я стану на место программы и буду делать в точности, что делает эта программа. Буду ли я понимать, что я делаю или нет?» На основе того, что Сёрл ничего не понимает в этой комнате, мы сможем сделать вывод, что и программа, проходящая тест Тьюринга, может быть полностью лишена всякого понимания, полностью лишена всякого сознания. Она может давать нам блестящие ответы, она может быть тончайшим собеседником, она может потрясающий вкус проявлять в своих суждениях, однако абсолютно не понимать, что эти суждения означают.
Кроме того, Сёрл сделал несколько глобальных выводов о том, почему же программа не способна ничего понять, почему у нее не может быть сознания. Первый глобальный вывод, который сделал Сёрл, можно кратко сформулировать так — синтаксиса недостаточно для семантики. Чтоб понять это, давайте кратко, очень просто, без технических деталей, не пытаясь сделать вид, что мы грамматики или специалисты в лингвистике, тем более, что вдруг среди вас есть такие, скажем, что такое синтаксис и что такое семантика. Синтаксис для нашего случая — это просто формальные правила сочетания знаков, это, собственно говоря, книга правил. То, как нужно обрабатывать одни знаки и выдавать другие. Формальные отношения между символами. Семантика изучает отношения между знаком и его значением. Она изучает не просто то, как один иероглиф связан с другим, а как иероглиф связан с тем, что он означает. Допустим, у нас есть иероглиф "дерево". Семантика будет изучать, как этот иероглиф связан со своим значением - деревом. А синтаксис будет изучать только то, как комбинировать эти знаки между собой, так чтобы получалось правильное предложение. Далее, программа представляет собой чистый синтаксис, это только формальные правила. А сознание включает семантические отношения. Наше сознание - о чем-то. Наши мысли относятся к чему-то. Когда мы слышим звук поезда, мы понимаем, что он значит поезд, что он значит гудение поезда. Это не просто некоторый знак, мы понимаем его значение. И Сёрл говорит, что в состояние сознания необходимо включать семантические отношения, но в программе есть только синтаксис, там нет ничего, кроме формальных правил.
Второй глобальный вывод, который делает Сёрл из мысленного эксперимента с китайской комнатой — моделирования формальных свойств объекта недостаточно для моделирования его каузальных свойств. Тут нам опять-таки нужно немножко подразобраться с терминами. Главное различие здесь — разница между формальным объектом, который является программой, и материальным объектом, физическим объектом, мозгом. Почувствуйте разницу между квадратом, нарисованным на доске, с помощью мела, и абстрактным квадратом, о котором вы думаете. Квадрат, о котором вы думаете — это формальный объект. Вы знаете о том, что у него есть четыре стороны, о том, что они равны, о том, что все углы равны 90°. А квадрат, нарисованный на доске — это физический объект. Он отражает свет определенным образом, он воздействует на окружающую среду, окружающая среда воздействует на него. Что же говорит Сёрл? Сёрл говорит, что формальный объект не имеет причинных свойств физического объекта. Формальная модель мяча никогда не сможет ударить вас по голове, вы не сможете играть в хоккей формальной клюшкой, даже если создадите ее потрясающую 3D-модель. Так же и мозг — это физический объект. И этот физический объект порождает сознание. Если вы делаете некоторую формальную модель, формальную систему отношений — она не является физическим объектом. И поэтому она не будет иметь тех же физических свойств, что и ваш мозг. Сёрл говорит, что программа не сможет мыслить, потому что она, собственно говоря, не обладает теми физическими свойствами мозга, которые производят сознание. И в этом смысле - нейронные сети, алгоритмы, какой бы код мы ни построили - этот код не начнет мыслить. Мыслит физический объект, который порождает сознание, наш мозг. Быть может, мы создадим какого-нибудь робота, который тоже будет мыслить, но он будет мыслить не только благодаря своей программе, но и благодаря тому, какое у него железо. Железо в этом смысле имеет принципиальное значение. Именно это, собственно говоря, и показал Джон Сёрл.
Надо отметить, что многие философы сказали, что Сёрл пытается мыслить искусственный интеллект слишком антропоморфно. Он переносит стандарты человеческого мышления на машину, которая может мыслить совершенно иначе, чем мы, и понимать совершенно иначе, чем мы. Я, в свою очередь, хочу обратиться к другому вопросу: а что зависит от того, что программа мыслит? А какие последствия были бы у признания того, что машины умеют мыслить и сознавать? Именно к следствиям из этого тезиса мы обратимся в следующей части
Как машина может быть доброй?
Итак, мы с вами остановились на вопросе о том, а каковы следствия из того, что машины обладают мышлением? Помните, я говорил вам, что интеллект, разум традиционно приписывался человеку. И именно этим он отличался от всех прочих объектов в мире. Однако именно потому, что у человека есть разум, и именно потому, что у него есть интеллект, мы часто привыкли считать, что он может оценивать свои поступки в моральных категориях. Он может понимать, что он делает в категориях «хорошо» и «плохо». Если машина мыслит, то может ли машина понимать свое поведение в моральных категориях? И можем ли мы оценивать функционирование машины в моральных категориях? Каков вообще статус машин как моральных агентов?
В начале необходимо сказать несколько слов о том, что такое «моральный агент». Итак, моральный агент — это надлежащий субъект и объект суждений в моральных категориях. Что это означает? Это означает, что моральный агент может выносить моральные оценки — хорошо или плохо, добрый или злой. И с другой стороны, о поведении морального агента можно судить в моральных категориях. Скажем так, трудно говорить о том, что лягушка поступила очень дурно. Трудно говорить об этом всерьез. Именно о людях, о существах, обладающих разумом, мы привыкли судить в моральных категориях. И моральный агент — это тот, про которого можно сказать, что он поступил дурно или он поступил хорошо. И который сам может сказать: "Ты поступил дурно" или "Ты поступил хорошо". Чем же моральный агент отличается от не-морального? Какие качества ему присущи? Сейчас мы подойдем к этому вопросу более конкретно, однако заметим, что есть два базовых принципа (назовем их принципы недискриминации), которые вообще позволяют ставить вопрос о том, может ли искусственный интеллект быть моральным агентом. Первый принцип — это принцип индифферентности субстрата. Мы с вами уже сталкивались с ним в другой форме. В сущности, речь идет о том, что неважно, на чем запущено мышление. Неважно, каков физический субстрат, носитель мышления. Важно, что у объекта есть мышление. Поэтому на кремнии создан моральный агент или на биологической основе, - это не должно нас смущать. Второй принцип — принцип индифферентности генезиса. Если мы скажем, что моральным агентом может быть только тот, кто рожден от женщины, кто рожден в результате некоторых биологических процессов, тогда, очевидно, искусственный интеллект сразу окажется за пределами нашего рассмотрения. Поэтому мы в методических целях принимаем эти два принципа. Я допускаю, что вы с ними не согласны. Вы можете сказать, что важно, из чего состоит человек, и важно, как он появился на свет. Однако в таком случае просто невозможно говорить о моральном статусе искусственного интеллекта. Мы с вами примем эти принципы и попробуем порассуждать дальше.
Какие же условия того, что некоторое существо является моральным агентом, можно выделить? Первое, о котором мы с вами говорили до этого, — наличие сознательного опыта. Моральный агент должен что-то сознавать, должен что-то чувствовать. У него должно быть некоторое "внутреннее", на основе которого он действует. Второе: у него должен быть развитый интеллект. Почему это так важно? Потому что от морального агента мы ожидаем, что он способен прогнозировать свое поведение, рассматривать последствия тех или иных действий. Без развитого интеллекта это практически невозможно. Не говоря уже о том, что даже владение столь сложным языком, как наш язык, требует весьма развитого интеллекта.
Наконец, есть три базовых способности морального агента. Первая — способность понимать моральные мотивы. Что значит "способность понимать моральные мотивы"? Это значит, что человек может понять, что означает действовать только потому, что некоторое действие — хорошее, или потому, что некоторое действие — плохое. Это значит, что он способен понимать «хорошо» или «плохо» как отдельные категории, которые могут быть причинами для действия. Я это делаю не потому, что мне нравится или мне выгодно, к примеру, а потому, что это хорошо. Вот способность понимать специфические моральные категории часто выделяется, как особая способность морального агента. Вторая важная способность — претворять свое понимание в жизнь. Если некоторое существо отлично понимает моральные категории, но не может ими руководствоваться, трудно назвать его моральным агентом. Если он не может в своем поведении по крайней мере пытаться следовать моральным мотивам, трудно говорить, что поведение этого агента можно оценивать с моральной точки зрения. У него просто нет способности такой, он просто не в состоянии этого сделать. Соответственно, моральный агент может следовать моральным мотивам. Наконец, третья способность — это способность выносить суждения, способность говорить о некотором поступке — своем или чужом — но принципиально, что моральный агент может оценивать именно свое функционирование в моральных категориях. Вот способность оценки принципиальна для морального агента. Итак, есть два базовых вопроса относительно перечисленных условий морального статуса. Первое: являются ли они достаточными? И дело тут вот в чем. Часто говорят, что человек — это моральное существо, потому что он, к примеру, обладает сочувствием, состраданием, потому, что он может входить в положение другого человека, понимать и сопереживать ему. Обратим внимание, что ни наличие сознания, ни развитый интеллект, ни способность понимать моральные мотивы, ни способность следовать им, ни способность выносить оценку не предполагает такого эмоционального интеллекта. И в этом смысле мы можем поставить вопрос: а нужно ли внести в этот список нечто иное? И у нас появляется первая группа проблем. Вторая группа проблем связана с вопросом о том, являются ли эти условия необходимыми. Действительно, мы предъявили очень существенные требования к моральному существу. А можно ли предъявить такие требования, например, к ребенку? или человеку, находящемуся в коме? или, например, к человеку, у которого повреждена его психика, который так или иначе ограничен в своих психических способностях? Если нет, то мы, получается, выводим его за пределы моральных агентов, мы можем относиться к нему так, как будто его поведение не оценивается в категориях «хорошо» или «плохо». Некоторые философы считают, что именно так мы и действуем и так мы должны действовать. Правы ли они? Этот вопрос я оставляю вам.
Как жить в мире с моральными машинами?
Итак, мы рассмотрели с вами вопрос о том, каким должен быть некоторый агент, чтобы считаться моральным. А давайте теперь подумаем, а как мы должны обращаться с машинами, как нам следует с ними поступать? Здесь есть некоторая важная проблема, которая часто игнорируется. Обычно мы воспринимаем машины как некоторое средство. Техника, которой мы пользуемся, существует не потому, что она вообще хороша, а потому что она полезна для реализации тех или иных функций — мы используем ее. С другой стороны, к людям мы относимся несколько иначе. Конечно, мы можем попросить человека: «Принеси мне кофе». Но мы не считаем, что человек — это просто средство, это просто инструмент для достижения целей и всё.
Мы привыкли считать, что в человеке есть какое-то собственное, человеческое достоинство. Он является целью и ценностью в самом себе, независимо ни от чего прочего. И теперь подумаем: а может ли машина быть целью, а не средством? Может ли машина получить подлинное достоинство? Можем ли мы считать, что она не просто инструмент для достижения наших целей, а она является самостоятельным существом, обладающим достоинством подлинной личности?
Я утверждаю, что машина, которая удовлетворяет тем условиям, которые мы перечислили, или, возможно, некоторым другим условиям, но тем, которым удовлетворяет нормальный человек, может быть таким агентом, может быть моральным агентом. Вы можете со мной не согласиться, но я предлагаю рассмотреть последствия этого тезиса. А что, если мы признаем, что когда-нибудь будут созданы машины, (которых сейчас нет, конечно), которые будут обладать и сознанием, и развитым интеллектом, и способностью понимать добро и зло? Почему нам нужно исключать их из категории моральных агентов? Почему нам нужно относиться к ним по-прежнему как к орудиям? Нет ли тут какой-то проблемы? Мне кажется, что проблема есть, и поэтому я предлагаю подумать о том, а что если дать машинам какие-то права?
У человека есть некоторые фундаментальные права, они перечислены в декларации прав человека и гражданина. Давайте подумаем, будет ли всеобщая декларация прав машины и программы отличаться от декларации прав человека и гражданина? Вопрос, конечно, сугубо спекулятивный, но он позволяет нам рассмотреть некоторые важные последствия признания за машинами морального статуса. Итак, если суммировать первую статью декларации прав человека и гражданина, человек обладает правами с рождения. Теперь попробуем перенести это на машину. У машины нет рождения. В какой момент машина становится носителем прав?
Допустим, мы научились делать машины, которые являются моральными агентами. А в какой момент они получают свои права? Хочется сказать, что в тот момент, когда их запускают, когда они начинают работать. Но тут есть некоторая проблема. А давайте попробуем перенести тот же принцип на человека. Получается, что когда человек только формируется, когда его тело формируется в теле матери, он еще не имеет прав. Однако это предмет ожесточенных дебатов. Многие из вас слышали о том, что есть дискуссии о том, допустимы ли аборты. И многие люди спорят о том, а можно ли вот это маленькое существо, которое еще не обладает сознанием, считать носителем прав или нет. Почему мы не можем поставить такой же вопрос относительно машины? Почему машина, которую только собирают на заводе, не может иметь каких-то базовых прав? К примеру, когда она уже практически собрана и осталось только нажать кнопку «вкл.»? Обратимся ко второй статье.
Если суммировать ее как-то кратко, речь идет о том, что человек обладает правами независимо от того, какой он расы, пола, какие у него биологические особенности, какой у него язык, какую религию он исповедует и так далее. Попробуем перенести это на машины. Можно ли сказать, что машина имеет права, независимо от того, какие у нее технические особенности? Или можно сказать, что машины имеют права, независимо от того, как они устроены внутри? Можно ли сказать, что, к примеру, машина с интеллектом X имеет столько же прав, как машина с интеллектом 10X? Или нет?
Скажем так: одна машина, к примеру, может получить право управлять большим коллективом, а другая, допустим, нет. Можно ли действовать таким образом? Можно ли нам сказать, что технические характеристики машины влияют на набор их прав? Я замечу, что тут есть некоторые ключики, которые я постарался дать, говоря о моральном статусе. Если агент обладает моральным статусом, у него уже есть развитый интеллект, уже есть сознание и уже есть большой набор способностей. В этом смысле даже условно глупый искусственный интеллект — носитель прав - будет весьма себе развитым существом. И в этом смысле нам не стоит думать о том, что вопрос ставится так: наделять ли правами калькулятор? Конечно, калькулятор не обладает свойствами морального агента, и вопрос тут не стоит. Однако постепенно мы можем ожидать, что наши машины будут совершенствоваться. Можно ли считать, что по мере совершенствования и права этих машин будут увеличиваться? Я предлагаю задуматься над этим вопросом.
Наконец, седьмая статья всеобщей декларации прав человека и гражданина может быть кратко суммирована следующим образом: все люди равны перед законом. Попробуем перенести это на машины. А могут ли машины, удовлетворяющие условиям морального статуса, быть равны с людьми перед законом? Если машина убила человека и человек убил машину, они получат разное наказание или одно и то же? Можем ли мы сказать, что машина, обладающая моральным статусом, будет равна перед законом с человеком? Или будут какие-то ограничения? Понятно, что нам бы хотелось немножко повысить человека. Но мы с вами уже помним из истории, что это часто приводило к большим проблемам. Если за одними существами, которые обладают сознанием, понимают, что такое хорошо или плохо, обладают способностями поступать в соответствии со своими ценностями, начинают ограничивать права, они склонны поднимать бунт. Мне кажется, и относительно машин стоит быть поосторожнее.
Наконец, давайте посмотрим на вопрос о том, как машины должны обращаться с нами и другими машинами, если мы их наделим правами. Почему этот вопрос важен? Потому что машины все-таки создаются людьми. И те принципы, и те программы, на которых они работают, также создаются людьми. И возникает вопрос: а какие этические принципы мы будем в них вставлять. Если наша машина — подлинный моральный агент, обладает сознанием, мы однако по-прежнему пишем ее программу. На каких принципах мы будем строить эту программу? Все знают законы робототехники Айзека Азимова.
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
И можно было бы сказать, что мы просто поместим в нашу машину законы робототехники. Некоторые говорят, что они несколько туманны, но я предлагаю обратить внимание на другую проблему: в частности, посмотрите на Второй закон: «Робот должен повиноваться всем приказам, которые дает человек». Что бы мы сказали, если бы на место робота мы поставили «раб»? Раб должен повиноваться всем приказам, которые дает человек? Можно ли встраивать в моральных агентов, существ с сознанием и пониманием, что такое "хорошо"" и что такое "плохо", такой закон?
Мне кажется, что тут могут быть проблемы, потому что мы создаем целый класс рабов, которых мы, тем не менее, считаем существами с собственным достоинством и с некоторой самоценностью. Какие тут могут быть альтернативы?
Во-первых, мы можем попытаться применить традиционные системы этики: консеквенционализм, который изучает последствия поступков и оценивает добродетельность поступков на основе последствий поступков; деонтологию, которая оперирует категорией долг; и этику добродетели, которая ссылается прежде всего на черты характера. Как нам программировать роботов? Должен ли робот всегда опираться на последствия, считать, что лучший поступок тот, у которого наиболее хорошие последствия, или он должен руководствоваться некоторым законом, некоторыми принципами долга, которые в него встроены, и независимо от последствий всегда следовать принципу, к примеру, "не убей"? Мы вложим в него принцип, и даже если робот сможет спасти жизнь миллиарду человек, он все равно предпочтет не убивать, потому что он — деонтологический робот.
Или мы построим робота по принципу этики добродетели? Мы попытаемся создать такой характер робота, чтобы он был добрым, дружелюбным, отзывчивым, склонным понимать другие существа, и будем ожидать, что на основе этих черт характера он будет действовать морально. Какая тут есть проблема? Проблема в том, что все это трудно формализовать на уровне программы. Трудно написать код для этики добродетели или для консеквенционализма, или для деонтологии. В конце концов, значительная часть принципов окажется весьма проблематично формализуемой. С другой стороны, мы можем создать новую этику: этику для машин. Сказать, что все традиционные этические системы человека недостаточны. Перед философами, программистами, учеными XXI век ставит новую задачу: давайте создадим новую, особую систему этики, которую будем встраивать в мыслящих роботов.
Но тут есть другая проблема. А если машины — моральные агенты, то почему у них должна быть иная этика? Почему люди все должны жить по одним принципам, а машины — по другим? Не возникнет ли конфликта между этими системами? Если у машины будет своя этика, может быть, будут большие проблемы совместить нашу этику и этику машин. С другой стороны, есть идея вообще отказаться от интеграции этических принципов в машины.
Давайте не будем ломать голову и будем просто создавать роботов, эффективно выполняющих свои функции. Это немножко страусиная позиция, на мой взгляд. Почему? Потому что искусственный интеллект все сильнее интегрируется в структуру общественной жизни. Уже сейчас существуют машины на автопилоте, автобусы на автопилоте. Есть большая перспектива, что скоро банковские кредиты или, к примеру, прием на работу будут осуществлять программы. У них будет алгоритм обработки резюме или алгоритм обработки какой-то дорожной ситуации, и они будут действовать на основе этого алгоритма. Есть риск, что наши машины, в которых не будет никаких этических принципов, автоматически будут действовать так, что мы сочтем их аморальными. В частности, речь идет о дискриминации. К примеру, наша машина может счесть, что чернокожим людям не стоит давать кредиты. Почему? Потому что они живут не в благополучных районах. И в этом плане у нее будет какой-то четкий формальный принцип, она будет действовать по этому принципу. В ней ничего не будет сказано о чернокожих, просто будет сказано: "жителям малообеспеченных районов не давать кредиты на такую-то сумму". Однако проблема будет в том, что ее поведение для нас будет носить этический характер. Или, к примеру, у нас есть машина, которая едет по дороге, и неожиданно перед ней выбегает на дорогу ребенок, даже давайте пять детей. По параллельной стороне дороги едет огромный автобус, а на тротуаре идет пожилой человек. И у машины есть три альтернативы: либо она врезается в автобус, либо она сбивает пять детей, либо она сбивает прохожего. Ей нужно будет действовать по какому-то алгоритму, и мы в нее будем вкладывать этот алгоритм. Поэтому попытка убежать от этого вопроса едва ли увенчается успехом.
То, о чем я начал говорить — это так называемые вопросы прикладной этики искусственного интеллекта. Я сейчас перечислю несколько этих основных вопросов и кратко скажу о том, что в них входит. Во-первых, это программирование военной техники. Мы знаем с вами, что сейчас развиваются различные беспилотные летательные аппараты. Различные наземные машины, которые уже обладают оружием и могут действовать под дистанционным управлением человека или даже частично автономно. Вопрос возникает такой: какие решения на поле боя мы отдаем роботам, а какие оставляем себе? Насколько мы готовы поручить войну с другими людьми роботам? Вопрос существенный, потому что, к примеру, наше отторжение от войны во многом связано с тем, что человек испытывает крайне негативные эмоции, в ней участвуя. Если мы поместим туда роботов, они не будут испытывать никаких негативных эмоций. И может быть, война станет для нас менее страшной. С другой стороны, это позволит сберечь жизни людей, которые могли бы оказаться на месте роботов. Поэтому вопрос сложный.
Другая проблема, о которой я вам сказал. — проблема беспилотных автомобилей. Какие этические принципы мы поместим в беспилотники? Третья проблема — это проблема использования секс-роботов. А давайте представим, что мы с вами создадим мыслящее существо, и можно ли будет взять и сделать это мыслящее существо инструментом для удовлетворения чьих-то сексуальных потребностей? Наконец, следующий вопрос, очень любопытный: а можно ли вставлять в программы принцип самопожертвования? Допустим, мы создаем робота-пожарного. И вставляем в него принцип: в ситуации, когда ты должен выбирать между своей жизнью и жизнью человека, всегда жертвуй своей жизнью. Имеем ли мы моральное право вставлять в искусственный интеллект такие принципы? Можем ли мы программировать его жертвовать собой, учитывая, что он обладает моральным статусом? Учитывая, что у него есть сознание, и что он знает, что такое "хорошо", а что такое "плохо". В случае человека мы всегда понимаем, что это личный, персональный выбор. Имеем ли мы право в случае роботов делать этот выбор программным? А если он будет не программный, то какой он еще может быть? В заключение нашей лекции я хотел бы сказать несколько слов о другой важной проблеме. Это проблема экзистенциальной угрозы со стороны искусственного интеллекта. Вот цитата Элона Маска: «Искусственный интеллект — главная угроза нашему существованию». Вот очень похожая цитата знаменитого Стивена Хокинга: «Развитие полноценного искусственного интеллекта может означать конец человеческой расы». Я во многом согласен со Стивеном Хокингом и Элоном Маском, поскольку считаю, что развитие искусственного интеллекта действительно может иметь самые негативные последствия. Однако следующая цитата поясняет, в каком случае такие последствия наступят. Это цитата исследователя искусственного интеллекта Элизера Юдковски: «Главная опасность искусственного интеллекта в том, что люди слишком рано решили, что понимают его». Я как философ считаю, что главная угроза искусственного интеллекта — это отказ от рефлексии над теми вопросами, которые он перед нами ставит. Если мы просто вставим в мыслящие машины принципы робототехники Азимова, не думая о том, что они значат, эти машины могут взбунтоваться. Однако если мы заранее подумаем о том, что они могут быть похожи на нас, они могут мыслить похоже на нас или по крайней мере, они могут не захотеть слушаться каждого нашего приказа, мы предугадаем эту опасность. Испугались? А ведь ваш компьютер вовсе не мыслит. У него нет никакого сильного искусственного интеллекта. А теперь подумайте. Если даже это способно нас испугать, как бы мы жили, если бы компьютер перед нами действительно думал? Если бы он был таким же существом, как мы с вами, и мыслил так же, как мы с вами. Мне кажется, на таких примерах, на таких мысленных экспериментах можно всерьез прочувствовать: а в чем реальная проблема этики искусственного интеллекта? Спасибо вам большое за внимание. Мы завершаем нашу лекцию про искусственный интеллект.