Специфика настоящего исторического момента для выживания человечества и Искусственный Интеллект (ИИ)
5 августа
Последние десятки тысяч лет биологический вид современного человека окончательно утвердился как господствующий на планете Земля. Эволюция человечества продолжалась, в основном, на путях внутривидовой конкуренции между отдельными группами людей и между личностями. Она шла преимущественно в социокультурной области (в том числе в технологической области).
При этом конфликты могли быть и очень жестокими, вплоть до полного вымирания отдельных групп людей и их субкультур. Но до середины 20 века это не могло привести к полному вымиранию человечества, как биологического вида. Однако со 2‑й половины 20 века появилась реальная возможность вымирания всего человечества в результате его собственной деятельности: «ядерная зима», глобальная эпидемия в результате генной инженерии, полное отравление окружающей среды, создание и «бунт» супер искусственного интеллекта, и т. п.
Соответственно, на протяжении почти всей Истории мог неограниченно применяться свойственный эволюции метод «проб и ошибок» (мутаций и естественного отбора) во внутривидовой конкуренции субкультур.
Но теперь он так применяться уже не может, дабы не вызвать вымирание всего человечества! Нужны новые рамки допустимой деятельности. И они уже возникали! Заключены и реализуются международные договора о запрещении и уничтожении химического и бактериологического оружия, о нераспространении ядерного оружия и о запрете его испытания и т. п. Таким образом, частично продолжается, через трудности, поддержание глобального техно‑гуманитарного баланса. Но сегодня человечество уже не имеет возможности совершить здесь серьёзную ошибку – и выжить после этого.
Требуется новый, более ответственный, уровень осознания проблемы поддержания техно‑гуманитарного баланса как насущного инструмента выживания человечества. Для этого необходимо сократить отставание в уровне развития общественных и гуманитарных наук от уровня развития естественных наук, техники и технологий. Возможно, для этого потребуется и сознательно притормозить темпы развития технологий.
В 21 веке это особенно актуально применительно к искусственному интеллекту (ИИ) и роботам, к возможностям их военного использования.
Тактическая задача
Необходимо срочно добиваться международного моратория хотя бы на производство, испытание и использование роботов, способных самостоятельно принимать и выполнять решения по насилию над людьми (бомбардировки, обстрелы, задержания и т.п.) без непосредственной команды со стороны оператора – человека. Такой мораторий должен действовать до тех пор, пока не будет надёжно обеспечена дружелюбность роботов по отношению к человеку, и невозможность применения ими самостоятельно насилия по отношению к любому человеку: по «правилам робототехники А. Айзимова», или как‑то иначе.
Далее Человечеству, а также отдельным группам и личностям нужно определяться со своей Стратегией по отношению к Искусственному Интеллекту. Для этого нужно дать чёткий ответ на базовый вопрос о целях создания и использования ИИ. Чего мы хотим, чтобы ИИ был помощником людям ВСЕГДА, либо чтобы он в перспективе заменил людей и Человечество?
Я верю в правильность первого варианта ответа. Но как ни странно (для меня), в дискурсе есть и множество сторонников второго варианта. Их я бы хотел переубедить, или лишить их возможностей реализовать свои человеконенавистнические желания.
Харари называет их «датаистами».
Критическое исследование датаистической догмы должно стать не только величайшим научным вызовом XXI века, но и самым актуальным политическим и экономическим проектом.
Харари, Юваль Ной. Homo Deus Краткая история будущего
Для реализации первого подхода к стратегии я сформулировал следующую задачу.
Стратегическая задача
Стратегическая задача состоит в том, чтобы не позволить Искусственному Интеллекту (ИИ) создать новый «псевдобиологический» вид разумной жизни на Земле (подобный биологическому виду Человека), который может потенциально победить людей в межвидовой конкуренции и уничтожить (или покорить) Человечество.
Искусственный интеллект (ИИ) принято подразделять на специализированный (слабый) ИИ, каждый вид которого предназначается для решения узкого класса специальных задач (игра в шахматы, распознавание и синтез речи, диагностика онкологии, беспилотники …) – (СлИИ); и на универсальный (сильный) ИИ, который потенциально может решать любую из задач, которые решает естественный интеллект человека – (УИИ).
СлИИ относительно безопасен для Человечества и может быть важным инструментом человека в различных областях его деятельности, не становясь его соперником (как и обычные машины или компьютеры).
А УИИ потенциально способен стать конкурентом человека и врагом Человечества. УИИ будет обладать самосознанием (необходимо для самосовершенствования), а значит, и собственными интересами. В сочетании с его неопределёнными возможностями и их быстрой эволюцией (развитием) это может привести к жёсткому конфликту УИИ и Человека («бунту машин»). Такая опасность уже многократно рассматривалась в искусстве (литература, кино). На неё также уже указывали ведущие интеллектуалы человечества: Хокинг, Гейтс, Маск, Ма, Харари и др.
УИИ, локализованный в интернете, то есть в виртуальном пространстве, сможет, при желании, нанести огромный вред Человечеству, лишив его возможности использовать интернет в своих целях. Такой УИИ потенциально может дезорганизовать все сферы жизни Человечества, связанные с использованием интернета. Однако, если у такого УИИ не будет выхода на управление машинами (роботами) в реальном (не виртуальном) пространстве, угроза «бунта» УИИ не будет экзистенциальной для Человечества (не будет грозить полным уничтожением Человечества). Человечество тогда сможет выжить, просто временно отказавшись от интернета, отключив, или разрушив физически, технические средства, обеспечивающие функционирование интернета. Это будет очень неудобно, но не смертельно для Человечества.
Но если УИИ получит возможность управлять множеством машин – роботов (централизованно или децентрализовано), то исходящая от него угроза будет экзистенциальной для Человечества. Тогда УИИ потенциально может полностью уничтожить или подчинить себе Человечество (всех людей нашего вида).
Роботы с универсальным (сильным) искусственным интеллектом (УИИ) могут превратиться в «псевдобиологический» разумный вид жизни на Земле (аналог биологического вида Человека). Для этого им нужно удовлетворять двум необходимым условиям: быть как бы живыми, и как бы разумными. Живыми – значит обладать способностью «плодиться и размножаться», то есть способностью самовоспроизводства (без участия человека). Разумными – значит уметь решать сложные задачи по самосохранению, приспособлению к окружающей среде, самообучению и эволюции (развитию своей «личности» и своего «вида»).
Опыт последних лет показывает, что эволюционное совершенствование компьютеров и роботов идёт во много раз быстрее, чем людей. И стратегически люди могут проиграть роботам конкуренцию видов. Но людям, чтобы выжить, необходимо этого не допустить!
Разумность роботов нужна человеку, и нам трудно от неё отказаться. А вот их способность самовоспроизводства пока не достигнута, и без неё человечество может обойтись довольно легко. А без этого роботы не могут стать аналогом биологического вида, и развиваться (эволюционировать) без контроля со стороны человека. Без возможности самовоспроизводства роботы с ИИ не смогут осознать и реализовывать свои «видовые» интересы во вред Человечеству!
Следовательно, экзистенциальной для Человечества проблемы «бунта машин» можно избежать, если допускать разумность роботов, но не допускать их «живости», то есть способности к самостоятельному размножению с эволюцией (самосовершенствованием). Именно этот «рубеж» – создание и производство новых роботов – людям нужно оставить за собой и охранять его «как зеницу ока». Тогда потенциальный «бунт машин» стратегически не будет грозить гибелью или порабощением всего Человечества.
Главное, нужно запретить все системы, обеспечивающие самовоспроизводство роботов без непосредственного участия человека. И реализовать это нужно на международном уровне, повсеместно на всей Земле.
Технологии Искусственного Интеллекта (ИИ) можно сравнить с технологиями атомной (ядерной) энергии или генной инженерии.
Для международного регулирования ИИ нужна организация, подобная МАГАТЭ.
Чтобы избежать противостояния роботов и людей нужно решить проблему их «общей судьбы».
У человека его сознание жёстко связано с его организмом. У сознания человека есть ощущение его общей судьбы с организмом, ответственности сознания перед организмом. Разумный организм, активный в физической внешней среде, обязательно обладает и сознанием, позволяющим ему выживать в ней. А индивидуальное сознание «привязано» к организму индивида. Философские мысленные эксперименты с «Зомби» представляются мне аналогичными подобным экспериментам с «вечным двигателем», или с «философским камнем», или с чертями – пережитками схоластики.
Очень важно обеспечить для Искусственного Интеллекта (ИИ) и его сознания безусловное (врождённое) ощущение «общей судьбы» с Человеком (конкретным или группой), невозможности действовать во вред Человеку, не нанося вред себе. Но это достижимо, только если у роботов не возникнет сознание принадлежности к своему виду и межвидовой конкуренции с Человечеством, на основе метаинстинкта сохранения рода, применительно к их роду (виду) роботов с ИИ. А это связано с возможностями (невозможностью) их самовоспроизводства и эволюции без участия Человека.
Кратко.
Человеку и Человечеству от Искусственного Интеллекта (ИИ) нужны инструменты, а не конкуренты!