«Искусственный интеллект: научный и духовный аспекты». Саркис Григорян - Радио ВЕРА
Москва - 100,9 FM

«Искусственный интеллект: научный и духовный аспекты». Саркис Григорян

* Поделиться

У нас в гостях был предприниматель, консультант, автор образовательных программ, руководитель центра компетенций по искусственному интеллекту Фонда Развития Цифровой Экономики Саркис Григорян.

Мы говорили об искусственном интеллекте: как о достижениях в этой сфере, так и об опасностях и недостатках, о том, как он может влиять на нашу жизнь, в том числе, духовную, а также о том, насколько применение таких новейших технологий не противоречит религиозному мировоззрению.

Ведущий: Константин Мацан


Константин Мацан:

— «Светлый вечер» на Радио ВЕРА. Здравствуйте, уважаемые друзья. В студии у микрофона Константин Мацан. В гостях у нас сегодня Саркис Григорян, предприниматель, консультант, автор образовательных программ, руководитель Центра компетенций по искусственному интеллекту в Фонде развития цифровой экономики, основатель и руководитель Клуба искусственного интеллекта бизнес-школы «Сколково».

Саркис Григорян:

— Добрый вечер.

Константин Мацан:

— Ну вот уже из представления ясно, что мы сегодня будем говорить об искусственном интеллекте и почему для Радио ВЕРА эта тема не случайная. Тоже об этом поговорим. Наш сегодняшний гость — специалист по этой теме, как я сказал, автор образовательных программ для Сеченовской академии, для Высшей школы экономики, а сейчас вы в МГИМО преподаете в магистерской программе совместно с Британской школой дизайна. Поэтому тема ваша, и вы часто по ней выступаете. Но вот, может быть, с этого вопроса я начну. Вот мы с вами на Радио ВЕРА, где предполагается, что мы обо всем говорим в перспективе такой, в горизонте такого религиозного мировоззрения. А вот религиозное мировоззрение и искусственный интеллект, где для вас здесь главный нерв этой проблемы, если она есть?

Саркис Григорян:

— Ну, конечно же, есть здесь нерв, потому что мы, когда говорим об искусственном интеллекте, нужно понимать, что есть, с одной стороны, научный подход, и есть личные отношения различных людей, которые этим занимаются, и оно разное. Есть глубоко верующие ученые, есть атеисты. А когда мы говорим со стороны обывателя, то, наверное, под искусственным интеллектом каждый там понимает что-то своё, что он увидел из фильмов, прочитал из книг и так далее. И для них, скорее, это, наверное, какой-то взгляд на такое будущее, когда вот за них всё сделают, все мировые проблемы порешают, а они будут как бы сидеть на диване и получать удовольствие. И вот в этом, на самом деле, мне кажется, кроется вот та самая загвоздка, что людям хочется уйти от проблем вот этого мира нашего, свалить с себя ответственность на кого-то, и в данном случае это вот технологии. То есть как будто бы технологии решат все наши проблемы, и мы будем все жить счастливо, и не будем чувствовать тяготы бытия. И вот в этом я вижу основную проблему. Потому что, на самом деле, никакой искусственный интеллект, при всех его развитиях, да, какие-то проблемы он решает, и достаточно много. Да, это очень сильно всё развивается, но человеческие проблемы, проблемы экзистенциальные, существование человека, проблемы, не знаю, там, боли человеческой, он никогда не решит. Если мы говорим о человеке как человеке, а не будем скатываться уже в какой-то там киберпанк, где мы как матрица с промытыми мозгами и так далее. К этому тоже, кстати, так всё потихонечку идёт.

Константин Мацан:

— А есть ли здесь такой аспект? Вы сказали про то, что люди, может быть, чересчур уповают или хотели бы уповать на искусственный интеллект, и нужно себя притормозить. А есть противоположная тенденция, что, наоборот, человек иногда сегодня боится искусственного интеллекта, что слишком большая власть, слишком такой фантастический сюжет о восстании машин и о захвате человека машинами, ну, конечно, не то, что приближается, но, в принципе, это тоже некая перспектива, которая вдруг раз и станет не фантастической литературой, а реальной. Такое есть?

Саркис Григорян:

— Конечно, есть. И он действительно приближается и так быстро, как никогда еще. Особенно это стало понятно за последние буквально пару лет.

Константин Мацан:

— А с чем это связано последние пару лет?

Саркис Григорян:

— Это связано с развитием, так называемых, больших языковых моделей, там, чад GPT, антропик, да, и вот этого семейства, да. А нейросети. Они тоже не нейросетевые, да. Вот, но именно вот эти языковые модели, позволили решать задачи, которые раньше... Ну, мы считали, что мы где-то через 10 лет к ним придём. Сейчас для нас уже очевидно, что эти задачи уже решаются лучше, чем среднестатистический человек. И это действительно многих людей, причём не самых глупых, настораживает. Людей, причём уровня Илона Маска и многих ученых. В том году было такое большое как бы действо по тому, как, ну то есть достаточное количество видных ученых собирали подписи про то, чтобы как бы притормозить эти исследования хотя бы до тех пор, пока мы не сможем их контролировать. Потому что идея какая? Если мы создаём искусственный интеллект, там, АGI, как так называемый, общий, который будет уже сильнее человеческого, то это значит, что и он обучаться будет, и всё делает лучше, чем человек. Соответственно, создавать новые версии искусственного интеллекта, он также будет лучше. И это как бы произойдёт просто с невообразимой скоростью, то есть это вот, как говорят, вот это вот понятие сингулярности, когда мы дальше не знаем, что будет. И у многих учёных, и у меня скромно в том числе, есть большие сомнения, что если мы породим какую-то интеллектуальную сущность, что она будет доброй. Доброй в нашем человеческом плане, а для неё? возможно, не будет такого понятия, как добро и зло. Более того, вообще странно сравнивать интеллекты в такой парадигме, это просто ещё один вид интеллекта, да, как, я не знаю, как интеллект птиц отличается, там, от интеллекта, который ходит по земле или тех, кто плавает. Разные среды, разные виды интеллекта с точки зрения науки. То же самое и это, то есть это просто несколько другой вид интеллекта, и там не будет никакой морали, ну то есть если как бы он будет умнее человека, он перешагнет через любые попытки её навязать. Сейчас делается так называемое выравнивание моделей, когда пытаются, чтобы модель там языковая не отвечала на вопросы, как сделать бомбы или еще что-то такие вещи. При этом это все людьми обходится, так называемые джейлбрейки или инъекции, как заставить модель добиться то, чего ей запретили. Но надо тоже понимать, невозможно обучить огромную всеобъемлющую модель, построить в ней картину мира, а потом сказать: а вот эту часть нельзя. Ну, так не бывает. И, как и с любым человеком разумным, мы с вами, как разумные существа, мы понимаем, что, условно, там, убийство — это плохо, но мы не можем взять и изъять из оборота все ножи. Я сейчас утрирую, но вот это вот примерно так же. Поэтому у меня есть большие сомнения относительно эффективности этих вещей, они каждый раз подтверждаются. А резюмируя, отвечаю на вопрос, да, такие опасения есть, и они среди многих людей и очень многих учёных ходят.

Константин Мацан:

— А у вас как у учёного и одновременно верующего человека есть что на них ответить профессионально? Или это вот то, о чём мы сейчас говорим, мы это должны просто пронять как факт, что вот есть такая реальность, с которой мы по большому счёту ничего не можем сделать. Есть процесс развития, и если только мы не воображаем себе мир как концлагерь, где все ученые строго подконтрольны, то люди будут дальше-дальше технологии развивать, исследования проводить, и рано или поздно мы придем к тому, о чем вы говорите, нужно просто быть к этому морально готовым и, ну, уповать на то, что как-то пронесет.

Саркис Григорян:

— Да, очень сложный вопрос. Ну, смотрите, здесь как бы две... глобально, да, там, не надо решать за Бога, и как будет, так и будет, да, мы должны делать то, что должны. Другое дело, что то, что касается этих больших моделей, которые в развитии претендуют на вот этот общий искусственный интеллект, они сосредоточены в руках больших корпораций, потому что это очень большие финансовые затраты на инфраструктуру, на дата-центры, на эти карты видео с чипами для обучения этих моделей, и это прям там миллиарды долларов. И такие затраты себе не могут позволить, там, условно, мы с вами, маленькая компания в России, такое себе никто не может позволить. То есть это действительно огромные вычислительные ресурсы. И такие вещи достаточно, ну, как бы можно контролировать. Другое дело, что мы никогда не сможем проконтролировать вот этот вот маленький момент, в тот момент, когда из чего-то такого не очень интеллектуального это стало суперинтеллектуальным. Это не плавное какое-то движение, это происходит, как любое открытие в науке, но вот так вот. И что вы видите дальше?

Константин Мацан:

— Что оно случайно происходит, или то, что это будет некий качественный скачок, который за собой подтянет резкие количественные изменения?

Саркис Григорян:

Это будет качественный скачок. Это будет качественный скачок.

Константин Мацан:

— То есть что-то накопится, и вдруг вот эта машина, нейросеть, выйдет на новый уровень.

Саркис Григорян:

— Не то, что что-то накопится, а просто в какой-то лаборатории произойдёт новое открытие, где совершенно всё по-другому начнёт работать.

Константин Мацан:

— Саркис Григорян, руководитель Центра компетенции по искусственному интеллекту в Фонде развития цифровой экономики, основатель и руководитель Клуба искусственного интеллекта бизнес-школы «Сколково» сегодня с нами в программе «Светлый вечер». А Россия как страна в своем технологическом статусе сегодня где находится? Мы в конце, в середине, в хвосте вот вообще этой технологической гонки в том, что касается искусственного интеллекта?

Саркис Григорян:

— Ну, надо сказать, что здесь очень малое количество стран вообще в этой гонке участвует. По большому счету это США, Китай. Мы здесь, скорее, как потенциальные догоняющие. Связано это не с тем, что мы какие-то плохие или неумные. Как раз-таки нет. Наши ребята со светлыми головами работают в подавляющем большинстве компаний в мире. И это действительно серьезные разработки. А здесь все связано с... Как-то исторически сложилось, что мы не производители железа. Большие модели обучаются на железе, на определенных чипах. Мы, к сожалению, на данный момент не производители чипов, да, и вот в это упирается. Мы, соответственно, там, компании крупные, которые занимаются у нас там обучением таких моделей, как, я не знаю, Сбер, как Яндекс, там, Тинькофф, они все вынуждены, ну не то, что вынуждены, других вариантов нет, покупать железо за границей. Сейчас, как вы понимаете, это совсем осложнилось. Ну, я так понимаю, что это каким-то там... Делается там условие параллельного импорта, Китай подтягивается, потому что Китай, как никто другой, также понимает, что такое попасть под санкции, условно, они там в науке их тоже немножко жмут, Америка с точки зрения безопасности, причём с такими же всякими странными вещами, как выкидывание учёных. Поэтому вполне возможно, что мы перейдём в какое-то время на китайские. Но вот с точки зрения мирового развития, к сожалению, мы такие, догоняющие. То есть у нас очень много хороших работ, у нас действительно очень много светлых голов, ребят, со многими я имею честь быть лично знакомым. Но, к сожалению, в последние пару лет, в связи с текущими событиями, когда мы вообще вынуждены защищать свои интересы, когда весь мир на нас нападает, еще плюс такая как бы получилась утечка мозгов. Потому что все-таки люди, которые этим занимаются, они такие как бы, знаете, как если бы человек где-то умный, а где-то не очень. Вот в плане как бы технологий, в плане разработки различных интеллектуальных систем там они где-то там с теми же ребятами, которые в авангарде международном. А вот в бытовом понимании там, я сейчас утрирую, суп варить, ну там понимать, как происходит вообще расклад взаимодействия сил мира, как странно вообще дружат или не дружат, какая была история, они, наверное, еще пока как бы не очень кто-то потому что молод, а кто-то потому что вообще на это не обращал внимания, занимался наукой, а когда у тебя всё окружение где-то там, на теплом берегу Калифорнии, то с этой точки зрения нам это большие проблемы доставляет. Я вот лично знаю несколько человек, действительно хороших, из моего окружения ребят, которые уехали. Кто-то вынужденно, потому что была компания, которая оказывала международные услуги, и они вынуждены были уехать туда, чтобы там банально иметь возможность получать зарплату и платить её людям. А кто-то вот...

Константин Мацан:

— По идейным соображениям

Саркис Григорян:

— Я бы даже не сказал, что это по идейным. Скорее, по отсутствию идейных соображений. То есть вот так вот, да. То есть это тоже может быть идея отсутствия идей.

Константин Мацан:

— Но вот возвращаясь к вопросу, то есть правильно я понимаю, что если мы пытаемся в теме об этом наступающем всесильном искусственном интеллекте какую-то искать точку для надежды, для опоры, то надежда на то, что всё-таки это не повсеместно, это разработки искусственного интеллекта локализуются в конкретных компаниях крупных, международных, то есть нам не нужно пытаться проконтролировать весь мир. Грубо говоря, понятно, с кем нужно вести работу, чтобы чего-то плохого не произошло. Таким образом, сузили область поиска. Есть конкретные люди, руководители, в конце концов, компании, их разработчики, их менеджмент, с которыми можно, если угодно, общественному мнению как-то вести диалог. Так получается?

Саркис Григорян:

— Ну, в общем случае, да, но никогда не нужно... То есть, знаете, здесь дело в том, что мы не можем технологически точно всё прогнозировать. Вот, то есть, на данный момент есть большие языковые модели, которые показывают там... Они по определённым принципам работают, они вот показали большой скачок. А здесь тоже есть понимание, что где-то мы упираемся, потому что нельзя бесконечно масштабировать железо, невозможно просто всё...

Константин Мацан:

— Площадей не хватит.

Саркис Григорян:

— Да-да-да. Вот. И здесь может быть такая история, что какая-то новая технология разобьётся, для которой, например, будет сильно меньше нужно. Нужно же понимать, что железо очень сильно подрастает, и то, что сейчас доступно для домашнего компьютера уже, какие-то маленькие сетки гонять, не знаю, пять лет назад вообще было невозможно. Мне кажется, это уже очевидно. У вас в телефоне мощностей больше, чем было у всего НАСА, когда они запускали на Луну людей, там «Буран», когда вот наш летал на автомате и садился, у него, по-моему, сколько-то там пару сотен килобайт вообще была память всего, то есть это килобайты, наверное, сейчас наши слушатели молодые и даже не знают, что это такое, таких нету цифр. Возможно произойдёт какой-то скачок, когда появится какая-то другая научная парадигма, в рамках которой эти модели создаются, и тогда мы тоже не будем этим защищены. То есть, пока что да, но надеяться, что так всё будет дальше, нет. Я говорю, это всё очень быстро произойдёт. Мы сейчас видим, как распространяются дипфейки, как эти модели позволяют генерить голос, видео человека, уже как бы куча сообщений о том, что где-то кого-то обманули, в Telegram кидают, YouTube как бы, о, это видео, как будто это друг там что-то просит.

Константин Мацан:

— Ну да, тут недавно у нас общий чат друзей, пишет друг в этом чате, что-то про то, что вот там в одной из стран, бывших стран СНГ можно удачно, недорого там оформить там какую-то там банковскую карту, что-то такое. Мы всем чатом отвечаем, что это не ты, мы его игнорируем. Он пишет, нет, это я, поверьте мне. Вот, мы пишем там, пришли фотку, он прислал эту фотку. Мы не верим. Я говорю: пришли видео, но видео он всё-таки уже не прислал. Но я понимаю, что ещё немножко, а может быть, даже сейчас... Уже пришло это видео, и ну окей, значит, это он пишет действительно.

Саркис Григорян:

— Уже, это уже есть. Уже не проверишь так.

Константин Мацан:

— Да, то есть это просто пока был такой не очень продвинутый мошенник, но это уже есть. И вот с этим непонятно, что делать, потому что давайте пофантазируем, ничего не стоит такой модели, если она есть. Если у неё будет задача уничтожить человечество, ничего не стоит обмануть, послать какие-то сообщения, чтобы там-то сделали то-то, там-то сделали то-то, и что-то устроить ужасное. Вот этот момент. Я всё время людям, которые не верят во что-то, в чудо, или не верят в Бога, я говорю, вот оно, на самом деле, чудо. Вот это и есть на самом деле чудо, потому что мы, как человечество, имеем возможность и могли уничтожить вообще сами себя уже такое количество раз. То есть просто если понимать, сколько есть таких вот тысяча и один способ уничтожить всё человечество, это действительно есть элементарный способ. А с развитием этих технологий это будет ещё проще. С синтезированием каких-нибудь суперядов, с синтезированием каких-нибудь бактерий специальных, которые будут... Ну, то есть это будет вообще вот такая вот задача.

Константин Мацан:

— Очень интересная мысль, и спасибо вам за неё, действительно, мы справедливо тревожимся за наше будущее в связи с развитием искусственного интеллекта, а вы как бы эту тревогу переворачиваете, вы предлагаете посмотреть на то, что уже могло столько всего произойти, и если оно не произошло, если мы до сих пор живем, то вот уже один шаг до того, чтобы как-то принять бытие Божие, что есть Кто-то промышляющий о мире, и так или иначе, вот, а где ещё искать надежду, как не в Нём? Если в самом мире, в его вот пределах, описанных материей законами физики, всё так шатко и небезопасно, то куда ещё духовный взор направить, как не за пределы этого мира, и как бы согласиться хотя бы с идеей того, что есть Кто-то, в Ком можно последнюю надежду обрести, потому что иначе её негде обретать. Кто-то всё-таки промышляет, и Кто благ и любит человечество.

Саркис Григорян:

— Да, я искренне считаю, что это вообще чудо. Потому что давайте вообще глобально возьмём. Мы с точки зрения космоса, космологии, развития, мы, похоже, действительно одни разумные на бескрайних просторах Вселенной. Ну, по крайней мере, на какие-то обозримые миллиарды лет, что мы видим, ничего близкого и нет. Ну, либо они были и погибли. Мы какая-то маленькая свечка во всей этой бескрайней вселенной. То, что так получилось, что у нас звезда наша спокойная, она вроде как обычная, с одной стороны, а с другой стороны, она достаточно спокойная, потому что, как бы, буквально там несколько необычных каких-то явлений, как бы, на солнце, и мы можем просто разом просто вымереть, да? Или просто, может быть, разом вся электроника просто сгорит. И это была бы другая звезда, с нами бы это там постоянно происходило. Мы бы даже не дожили до этого. То есть каждое из этих событий, что мы сейчас с вами сидели и общались, вот так вот спокойно. Каждое из этих событий, чтобы в цепочку выстроить, оно настолько маловероятное, и продолжается в малой вероятности вообще вот это всё. То есть это какая-то ничтожно маленькая вероятность, что это вообще могло произойти. А это произошло, и мало того, мы ещё видим каждый день в мире подтверждение тому, сколько как бы странных, мягко говоря, есть людей, которым нравится, когда там вокруг всё хуже, и они там саморазрушающие и готовы ещё вокруг всё разрушить, да. И вот во всём вот в этом, казалось бы, хаосе, мы как-то развиваемся, и как-то становится всё лучше и лучше. Как-то человечество становится всё лучше и лучше. Мы становимся, несмотря на всё, всё-таки цивилизованней. Несмотря на всё, у нас смертность уменьшается, у нас меньше детей умирает. Хотя это до сих пор всё есть, да? Мы с вами вот сидим в хорошо оборудованной студии, а где-то там дети умирают от того, что воды банально нет. Но и это с каждым годом меняется, улучшается. И я искренне считаю, что это чудо. Потому что в любой момент времени может быть совсем всё как бы плохо стать. Просто вот на один щелчок. И, к сожалению, мы даже многих таких вещей просто не знаем. Они где-то там под коврами происходят, и мы просто не знаем о том, что это.

Константин Мацан:

— Потрясающе интересно. Мы настолько в хрупком мире живём, и такой хрупкий мир как-то... Хрупкость этого мира, что называется, побуждает к религиозной вере. Потому что где ещё искать источник и опору? Мы вернемся к этому разговору после небольшой паузы. Напомню, сегодня с нами в программе «Светлый вечер» Саркис Григорян, руководитель Центра компетенций по искусственному интеллекту в Фонде развития цифровой экономики и основатель и руководитель Клуба искусственного интеллекта и бизнес-школы «Сколково». У микрофона Константин Мацан. Не переключайтесь.

Константин Мацан:

— «Светлый вечер» на Радио ВЕРА продолжается. Еще раз здравствуйте, уважаемые друзья, в студии у микрофона Константин Мацан. У нас сегодня в гостях Саркис Григорян, руководитель Центра компетенций по искусственному интеллекту в Фонде развития цифровой экономики, основатель и руководитель Клуба искусственного интеллекта, бизнес-школы «Сколково», предприниматель, консультант, автор образовательных программ. Мы сегодня, понятное дело, говорим об искусственном интеллекте. И вот я бы еще о чем хотел спросить. Для современных дискуссий, в том числе с верующими людьми или с неверующими, об искусственном интеллекте, еще такая тема возникает. Существует представление о том, что человек — это просто суперкомпьютер. Вот критики религии из этого исходят. Мы просто некий механизм особенный. Нервные связи в мозгу происходят по аналогии с электрическими процессами в процессоре компьютера, и мы можем объяснить человека вот из этого, из вот такого состава естественного. И когда все больше и больше развивается искусственный интеллект, когда он все больше и больше становится похож на человека, становится способным выполнять те задачи, которые человек раньше выполнял, это вот дает таким скептикам в отношении религии, ну, если угодно, дополнительный аргумент в их пользу. Просто, смотрите, вот, вот уже почти перед нами настоящий человек, и значит, никакой библейской идеи о том, что человек образ и подобие Божие, нам не нужно. И вообще в этом смысле Библию можно откинуть. И вообще никакого как бы объяснения человека сверху от Бога нам не нужно просто. Это как бы некое излишнее постулирование сущностей. Всё можно объяснить вот отсюда, снизу, из науки, например, да? И повторюсь, неким аргументом для скептиков в этом отношении выступает то, что всё больше и больше искусственный интеллект на человека похож. Что вы об этом думаете?

Саркис Григорян:

— Ну смотрите, я начну с шутки, знаете: «Как это работает?» «Сейчас я тебе объясню». «Нет, объяснить я и сам могу, скажи, как это работает». Мы, несомненно, очень глубоко продвинулись в системах так называемого искусственного интеллекта, мы, несомненно, глубоко продвинулись в понимании, как работает человеческий мозг, но, тем не менее, от цели понимания, как работает человеческий мозг, мы очень далеко. То есть у нас даже где-то горизонта не видно. У нас огромное количество всего того, что мы не можем объяснить, и мы даже не понимаем, с какой стороны это надо...

Константин Мацан:

— Ну, например?

Саркис Григорян:

— Ну, например, вопрос сознания. Есть какие-то несколько теорий, типа Карла Фристона и так далее, которые пытаются это объяснить. Достаточно стройные математические модели, но мы всё равно даже близко пока не можем подойти, понять, а уж воспроизвести, и тем более. То есть надо понимать, что там нейронные сети — это общее название и оно там к нейронным сетям в нашем мозге не имеет никакого отношения, это совершенно разная структурно, ну то есть это просто вот там условно натянули. Потому что вот здесь вроде как много связано клеток нейронов, они образуют сети, и здесь вроде как связано много персептронов, так называемых, которых назвали нейронами, и вот только этим.

Константин Мацан:

— А простым языком для неподготовленного слушателя можно объяснить, в чём принципиальная разница? То есть, вроде бы вы сказали, что одно на другое натянули. Даже я в своём вопросе, например, действительно подразумевал, что вот там нейронные связи, здесь нейронные связи, вот аналогию проводим, видим, что практически это то же.

— Да, конечно. Ну то есть клетка человеческая, она устроена намного сложнее, чем вот та математическая функция, которую называют нейрон. Если совсем утрировать, то одна клетка сама по себе может представлять нейронную сеть в понимании технологий. Здесь очень сложно, потому что если в нейронных сетях мы, условно, передаём какие-то цифровые значения, и они идут от начала до конца, проходя этой, условно, функцией, через функции, и получаем какой-то ответ, и они там однонаправленные, есть вход, есть выход, то в человеческом мозге это всё происходит совершенно по-другому, то есть там, и причём на разных уровнях, то есть там есть уровень там как бы полей энергетических, есть уровень электрических сигналов непосредственно, есть уровень химического взаимодействия и проникновения различных веществ через мембраны клеток, то есть потом взаимодействие отделов головного мозга, как там они возбуждаются, там, всё это взаимодействие с памятью. Это настолько сложный как бы процесс.

Константин Мацан:

— Многосоставный.

Саркис Григорян:

— Да-да-да, многоуровневый, многосоставный, а мы там чуть-чуть... То есть мы ещё где-то там, условно, мозг мухи-дрозофилы мы вот недавно там полностью там разобрали по клеткам. Но там для того, чтобы понимать, как у человека это, нет. Мы очень далеко, поэтому... То есть вот это вот то, что мы сейчас там... Можем как бы все это объяснить? Нет, мы не можем все это объяснить. Более того, мы не можем объяснить, почему нейронные сети работают так хорошо, как они работают. Их не зря называют черным ящиком, не зря есть отдельное движение целое в науке по созданию объяснимого искусственного интеллекта, потому что на данный момент, условно, вы там задаёте вопрос вам сеть отвечает, а вот почему, вы не можете внутри это проследить, то есть нету никакой последовательности логической, нет вот такого объяснения и собственно почему есть проблемы с применением каких-то таких сетей в отраслях, где очень принципиально важно что-то касается жизни, безопасности и так далее. Они там не встроены так, чтобы сразу всё делать. А это, знаете, вот там говорят, система поддержки принятия решений. То есть, когда сеть даёт ответ, а человек уже, как бы, компетентно ещё раз решает, и вот последнюю кнопку или решение за ним. Ну, здесь, во-первых, понятно, чтобы была на ком-то ответственность. А во-вторых, как раз-таки, что человек ещё может как-то попытаться объяснить, почему он к такому выводу пришёл, а оттуда мы не можем. Продолжая так же, я могу сказать, что смотрите, чем мы больше понимаем, тем больше мы понимаем, что совсем за этим действительно стоит чудо. Поясню, чтобы не быть совсем фантастическим, например, законы, физические законы, то есть они базируются на определенных принципах, если совсем утрировать, на определенных числах. Почему они такие? Любое малейшее, как бы, изменение в них совершенно всё было бы не так, любое малейшее изменение в физических законах, не знаю, молекулы бы так не собирались там, да, то есть само вот это вот, просто что вот наш мир вот с такой именно физикой, в которой очень много, если глубоко копать и разбираться, очень много есть вещей, которые, во-первых, красивы, как говорят учёные многие, божественно красивы. То есть люди смотрят и понимают, что как будто это рукотворно, и иначе сделать было бы нельзя, потому что всё бы повалилось, вся бы физика повалилась, вообще всё. Вся реальность бы повалилась, да, то есть в самих этих законах собрано что-то такое, объяснить, почему это так, никто не может. Большой взрыв давайте возьмём, там, Леметр, который впервые написал о нём, кстати, священник.

Константин Мацан:

— Да, католический.

Саркис Григорян:

— Мне очень нравится вообще эта история, потому что самая заметка в журнале Nature — это вот такой там маленький столбик. То есть это одно из самых важных открытий в нашей космологии, в развитии нашей Вселенной. Это просто маленький столбик текста, что было до этого? Да, то есть какие-то вопросы такие, где там, ну вот, вот, ну вот там вот физика перестаёт наша работать, а что было за ней? Ну если мы такие умные, ну что же там? Могли бы додуматься, наверное, да, там могли бы предположить, а здесь нет. И ученые там многие, несмотря на то, что они атеистических взглядов, но все равно там в какой-то момент они где-то упираются. И все, и ну, то есть вот как это объяснить, что нам что, просто не хватает мозга или как? В общем, я бы не был таким самоуверенным, уподобляя всё на технологии. Ничего они не объясняют. Мы до каких-то пор что-то там можем понять, и уже мы понимаем, что есть какие-то вопросы, на которые нам никогда не получить ответ. Какие-то вещи меньше планковских величин, т.е. в глубь, в реальность вот туда вот, чем меньше-меньше определенного как бы размерности, мы физически мы не можем, т.е. законы физики нас ограничивают. Посмотреть за пределы, по-моему, сейчас как-то 13-15 миллиардов лет, я, честно говоря, не помню, на Вселенную дальше мы тоже не можем. Нет возможности. Нам надо быстрее скорости света туда как-то лететь. Есть ещё куча ограничений, которые мы никогда не узнаем. И чего с этим делать?

Константин Мацан:

— Меня даже в чём-то шокировали ваши слова, что когда мы посылаем запрос в социальную сеть, в нейросети, получаем ответ, мы, в общем-то, если я правильно вашу мысль услышал, не очень знаем, как она к этому ответу пришла.

Саркис Григорян:

— Так и есть.

Константин Мацан:

— Но это вот то, что кажется человеку-обывателю без специальных знаний, как мне, чем-то таким контринтуитивным. Ведь кажется, что люди разработали алгоритмы, чтобы эта социальная сеть обучалась. Она из всего масштаба текстов, которые ей доступны, по какому-то, видимо, вложенному в неё алгоритму какой-то ответ выдаёт. Это не так? То есть мы... Тогда какие у нас основания вообще доверять нейросети, например?

Саркис Григорян:

— Смотрите, их обучают на больших объёмах данных, в результате сети как бы выучивают, можно утрированно сказать, что строят некую модель тех данных, на которых их обучили внутри себя. Если мы говорим об этих больших языковых моделях, то их обучают на корпусах, я не знаю, там, условно, вся классическая литература, какие-то научные данные, там, Википедия, какие-то там сайты разные, да, то есть огромные корпуса данных, на них они обучают, в результате, как бы, там, модель внутри себя строит там взаимосвязи между различными понятиями, потому что, ну, как бы, текстов много, они описывают одни и те же сущности с разных сторон, там, не знаю, с научной, с литературной, с шуточной, ну с разной совершенно, да? И в результате у модели появляется некая такая как будто бы внутренняя картина мира, как будто бы. И в которой она обучена давать нам ответы. Вот, иногда она галлюцинирует, то, что называется, и может идеально придумывать. То есть задача — дать ответ, ответ она не всегда знает, более того, она не может знать, какой ответ правильный, а какой нет, вот, в общем виде. Вот, и поэтому, как бы, то есть хорошо обученные модели, проверенные на специальных бенчмарках, на тестах они с достаточной достоверностью, как бы грамотно всё делают, то есть можно доверить, вот хорошо отвечают на вопросы, хорошо работают с данными, то есть ты можешь вывалить просто мешанину текста и сказать, там: распиши мне это вот там по строчкам и так далее, там, можно смешные вещи сделать, там, какой-нибудь свод анализ Достоевского. То есть они всё это классно делают, просто потому что они хорошо научены, но они внутри сами себя не понимают, у них нет такой способности, в смысле, то есть там нету какой-то субъектности, нет самости, я, самосознания, этого всего нет. Это там, ну, ты нажал кнопку, получил результат. Мы можем там спорить, предполагать, что вполне возможно, когда мы создадим этот суперинтеллект, он будет, кроме прочего, обладать какими-то там, не знаю, зачатками или каким-то там самосознанием, пониманием собственного я, пониманием, где он находится, хотя многие учёные говорят, что без тела, тела как того, что взаимодействует с внешней средой, это тоже невозможно — сознание.

Константин Мацан:

— Ну, философия сознания вообще передний край современной философии.

Саркис Григорян:

— Да, это сложный вопрос.

Константин Мацан:

— И сложность в том, чтобы понять, есть ли сознание у компьютера или может ли быть оно у компьютера, надо сначала понять, что такое сознание вообще, а ответа на этот вопрос у человека пока нет.

Саркис Григорян:

— Абсолютно.

Константин Мацан:

— То есть есть некие концепции того, что такое сознание, как его объяснять, через что его объяснять. И это конкурирующее объяснение, и вряд ли вообще вот в такой философской перспективе когда-то мы получим одно единственное всех удовлетворившее объяснение, которое поймём, что вот оно и есть. Потому что это вообще противоречит природе философского знания. А без того, чтобы понять, что такое сознание, мы не можем это понятие применить и к компьютеру. Поэтому тут мы остаёмся вообще в области только вероятных, описывающих моделей, которые могут быть более или менее успешными, но не более, чем конкуренции различных моделей.

Константин Мацан:

— Саркис Григорян, руководитель Центра компетенций по искусственному интеллекту в Фонде развития цифровой экономики, основатель и руководитель Клуба искусственного интеллекта и бизнес-школы «Сколково», сегодня с нами в программе «Светлый вечер». Но, может, возвращаясь вот к теме про то, что меня так, на самом деле, поразило, что вот посылаем запрос в нейросеть, получаем ответ, но мы не знаем, как она к этому ответу пришла. Можем ли мы это переформулировать так, ну, ответов же, возможно, у нейросети больше, чем один на любой вопрос. Их может быть несколько, может быть, не миллион, сто, десять там. И вот как она выбирает из наиболее подходящих ответов, мы не можем сказать. То есть нет критерия для неё. И вот вы сказали, я вот для себя это понимаю, что...

Саркис Григорян:

— Её обучают. То есть её обучают, когда... То есть там есть такое, то есть называется обучение с подкреплением, когда люди помогают или маркируют ответы, что вот это вот хороший ответ, вот это вот не очень, вот это хороший, вот это не очень. И она таким еще образом учится. Вот это очень хороший ответ, это действительно. Нет, это да, конечно, да. Потому что для меня было удивление, когда я... Это было, значит, Евангелие от Матфея, когда Иисус, вися Кресте, сказал: «Господи, Господи, почему ты покинул меня?» Я очень мало знаю людей, в том числе верующих, которые могут объяснить значение этого. Что это значит? Иисус перестал верить?

Константин Мацан:

— И что, вам нейросеть ответила?

Саркис Григорян:

— Она очень круто ответила. Она действительно ответила правильно. Она ответила так, что... Ну, я сейчас, естественно, не дословно, но своими словами. Это показывает как раз-таки ту реалистичность, что Иисус как и Сын Бога, так и Человек воплощённый, и что мучения человеческие, Он же пришёл нам показать пример, что несмотря на все мучения жизненные, как бы нужно идти правильным путём, и что мучения человеческие как плоти такой силы, что даже Сын Божий, Его человеческая часть, вот при таких мучениях, немножко могла усомниться в моменте. И это очень глубокая мысль. Это очень глубокая мысль. Я был тогда, это первый раз, это ещё было тогда G5 3,5, не вот 4 ещё, такая более глупенькая версия. И я был поражён этому ответу. Я потому что... Я мало людей знаю, которые действительно бы ответили так. Потому что это очень глубокая мысль. Вот, поэтому... Он как это? Он опасная штука.

Константин Мацан:

— Ответы иногда классные, и я даже знаю, что просто... Но все мы знаем из новостей, что там дипломы написаны чатами, GPT, ботами, что какие-то там рекламные или предающие тексты, вполне уже туда загружаешь вопрос, если правильно сформулировать его, прекрасные тексты. Я, скорее, вот для себя рефлексирую над тем, о чём вы сказали, что действительно, получается, мы заложили какие-то алгоритмы в искусственный интеллект, но как конкретно эти алгоритмы сработают, вариантов больше, чем один. Поэтому в этом смысле, видимо, мы не знаем, как она выбирает ответ, а значит, мы не можем совершенно полагаться на искусственный интеллект, на то, о чём вы сказали. Я бы вот о чём хотел спросить, вы занимаетесь образованием, образовательными программами по искусственному интеллекту, то, о чём мы сегодня всю программу говорим, это вопросы этические в том числе.

Саркис Григорян:

— Абсолютно.

Константин Мацан:

— А вот насколько вы эти вопросы закладываете в образовательную программу, то есть тех, будущих специалистов по искусственному интеллекту, не знаю, кто они будут, разработчики или, там, управленцы, которые будут с ними работать. Вот. Удается, если угодно, как-то впрыснуть заряд этот вот, такой, этической обеспокоенности этими вопросами в тех, кто по вашим программам учится?

Саркис Григорян:

— Ну, смотрите, тут с разных, может, сторон посмотреть. Со временем две первые программы по искусственному интеллекту для медиков во Втором медицинском университете в Сеченовки я написал и преподавал их. Там, естественно, это важно, потому что...

Константин Мацан:

— «Не навреди» принцип.

Саркис Григорян:

— Да, принцип «не навреди», у тебя есть человеческое здоровье, и слепо полагаться на ответ, это опасно, даже если мы возьмём там не процент, а даже тысячные доли процента, всё равно, даже одна там человеческая жизнь, она важна с точки зрения как бы врача, если он еще как бы человек, то, мне кажется, что-то такое пропустить и там, прошу прощения, угробить человека вот так вот, да, это страшно. Вот. Здесь это важно. А в бизнесовых историях там это менее важно, там все очень просто. Ну, то есть твоя ошибка выливается в денежный эквивалент. И в зависимости от того, кто ты, ты сотрудник, это одна история с тобой, не знаю, уволят или что-то, не получишь премию. Если ты владелец бизнеса, то твои неправильные допущения или твои излишние надежды могут вылиться просто в излишние траты, которые экономически были неэффективны. Более того, здесь нужно сказать, что вот этот вот хайп так называемый, шумиха вокруг всех этих историй, она действительно играет плохую службу очень многим, потому что начинают туда лезть, играться и зачем-то придумывать какие-то применения для бизнеса, которые, в принципе, ну, не нужны. Ну, то есть вот...

Константин Мацан:

— Ну, например?

Саркис Григорян:

— Ну, я, честно говоря, вот не очень... Ну, вот недавний пример мой, у меня там была проблема с одним банком. Я не буду сейчас говорить с каким. И я пробирался через там три линии поддержки автоматической, чтобы попасть на четвёртого совершенно некомпетентного человека. Потратил кучу времени. Естественно, проблему мне не решили. Это было несколько дней решения, пока каким-то чудом я не вышел на IT-специалиста, который... Это не его была вотчина, но он мне помог. Но при этом я каждый раз общался с какими-то роботами, которые мне говорили то-то. И я вот на этот момент, например, для себя вот не очень понял, какая ценность развёртывания всего вот этого, если там даже после всех этих роботов стоит некомпетентный человек, то есть это как будто бы мы убрали компетентных людей с поддержки, наводнили их как бы роботами, которые как бы решают какие вопросы? Вопросы для дурачков они решают, ну да, я понимаю, что наверное таких вопросов 90 процентов, но это же можно всегда еще где-то посмотреть а какие-то сложные вопросы, которые невозможно решить самому или посмотреть даже на сайте даже при желании вот эти вопросы не решать.

Константин Мацан:

— Да, то есть получается, что искусственный интеллект становится не помощником, а препятствием, наоборот, к решению задачи, когда он не по назначению использован.

Саркис Григорян:

— Да, да, да. Вот эти все какие-то там чат-боты лишние там. Теперь каждому бизнесу нужен, значит, чат-бот. Каждому бизнесу нужна какая-то своя там... Ну, то есть непонятно, зачем это. То есть да, это модно и это здорово, но если у вас есть хороший продукт, то не нужно придумывать вот как... Не знаю, помните, несколько лет назад там были эти смешные рекламы? «Купи квартиру, получи кепку». Вот это прям я запомнил, потому что смешная. Ну и они юморили как бы, зато все запомнили. Это иронично специально.

Константин Мацан:

— Да-да-да, купи... Это, кстати, хороший рекламный ход.

Саркис Григорян:

— Да, это хорошая реклама. Но вот многие сейчас занимаются вот этим. То есть вам нужно квартиру продавать, а не кепки раздавать. И я понимаю, что это всё здорово, модно, отлично, но это не везде нужно. То есть есть, где действительно это нужно, есть, где это действительно помогает. Фармацевтические компании, биотехмодели помогают спрогнозировать, токсичность молекул, помогают спрогнозировать, там форму белка, там вот этот альфа-фолд дипмайн, который сделали, то есть они шикарную задачу решили по тому, чтобы спрогнозировать как выглядит молекула белковая просто по формуле, что сложно было. Артём Оганов наш, один из величайших, мне кажется, ныне живущих кристаллографов, учёных, тоже, кстати, глубоко верующий человек.

Константин Мацан:

— Да-да, мы с ним интервью записывали.

Саркис Григорян:

— Мы дружим прекрасно. Он тоже этими методами смог решить задачу, которая раньше казалась невозможной, по формуле кристаллическую структуру, что уже о многом говорит, о химических свойствах, и так далее, и так далее. То есть, в таких областях это действительно помогает. Помогает в каких-то иногда неожиданных областях, осенью я был на саммите одном отраслевом, там они меня уж какой раз приглашают, и там были интересные, например, задачи как-то с помощью там распознавания видео на металлургических комплексах, там, не помню, там плавка была, там, алюминий или чего-то, и там достаточно такое старое производство, в принципе, оно там не менялось с 60-х каких-то, 70-х годов, да там и, в принципе, меняться нечему, то есть либо вообще с нуля завод строить, там внедряли в эти как бы старые процессы, они там внедряли видеонаблюдение, где смотрели там по цвету, по количеству каких-то образовавшихся шлаков, еще вот такого там в какой стадии процесс, чтобы можно было быстро принять какие-то решения, то есть это прям круто, на это смотришь: «Вау! Здорово!» Но вот очень много всего того, что я вижу, и более того, я читал исследование Гарвард Бизнес Ревью, где там порядка трети тех, кто внедрил, как бы совершенно ничего не получили, и порядка четверти там совершенно, ну, то есть как бы это было вообще экономически неэффективно, и то есть это просто как бы списали эти траты, то есть нужно понимать, что как бы хайп он не... если о чём-то говорят из каждого утюга, то значит нужно к этому очень осторожно относиться, а то получается какой-то ну не «МММ», но в какую-то в ту сторону, потому что излишние ожидания, они потом чреваты сильными разочарованиями.

Константин Мацан:

— Ну что ж, для меня главный итог сегодняшнего разговора — это то, что несмотря на все страхи и тревоги, обоснованные, связанные с развитием искусственного интеллекта, про преимущества и завоевания. Мы даже не говорим это, очевидно, и всячески приветствуются, но вот такая область, как переживания, страхи, тревоги о контроле компьютеров над жизнью человека, вообще о власти искусственного интеллекта над человеком, вот это все есть, но вера в Бога и упование на Его любовь и промысел о мире, человечестве могут быть сильнее любых страхов и тревог, для этого есть основание. Уже сейчас, уже сейчас основание видеть эту мудрую, любящую, сберегающую руку Божью во всех творящихся процессах вокруг нас. Спасибо огромное за эту программу, за эту мысль. Саркис Григорян, руководитель Центра компетенций по искусственному интеллекту в Фонде развития цифровой экономики, основатель и руководитель Клуба искусственного интеллекта бизнес-школы «Сколково», предприниматель, консультант, автор образовательных программ, был сегодня с нами в программе «Светлый вечер». В студии у микрофона был Константин Мацан. Спасибо. До свидания.

Саркис Григорян:

— До свидания.


Все выпуски программы Светлый вечер

Мы в соцсетях
****

Также рекомендуем