НОВОСИБИРСКИЙ ГОСУДАРСТВЕННЫЙ ПЕДАГОГИЧЕСКИЙ УНИВЕРСИТЕТ

 ПРЕСС-ЦЕНТР НГПУ

НГПУ в публикациях

Страница: (Предыдущий)  1 ...  780  781  782  783  784  785  786  787  788  789  790  791  792  793  794  795  796  797 ...8607   (Дальше)

Что не так в искусственном интеллекте сегодня? Не о том мечтали братья-фантасты в ХХ веке

17 March 2023
Что не так в искусственном интеллекте сегодня? Не о том мечтали братья-фантасты в ХХ веке
Интернет издание "Континент Сибирь Online"

Бурные восторги в СМИ и соцсетях по поводу каждой очередной картинки, нарисованной нейросетью, за последние несколько месяцев превратились уже в отдельный информационный жанр. Неустанное перечисление эпистолярных достижений новоиспеченных чат-ботов и экспозиция визуальных извержений нейросетей, почти вогнали в комплекс неполноценности тысячи копирайтеров и дизайнеров по всему миру. Но в этом ли главный вызов искусственного интеллекта (ИИ), и какие реальные вопросы ставит он перед современным социумом? Искать ответы «Континенту Сибирь» помогали новосибирские ученые и эксперты.

Искусственный интеллект. Сегодня для одних это магическое заклинание, олицетворяющее собой научно-технический прогресс и билет в будущее, для других — удачный маркетинговый кейс, позволяющий хорошо заработать на ажиотаже, для третьих — конкурент в профессии, бизнесе и даже в творчестве. В общем, явление не вполне оформившееся ещё в социальном, да и научном, сознании, но уже вызывающее у многих вполне конкретные эмоции. «Понятие, неустоявшееся даже в научной среде, хотя в обиходе, в научно-фантастической литературе оно появилось давно. Сейчас его называют «ИИ», а у Стругацких несколько десятилетий назад было название искусственного интеллекта — «Искин». Сегодня совершенно разные технологии включаются в это понятие. У обывателя, человека далекого от этой тематики, может создаться впечатление, что ИИ — это некий аналог человеческого разума, что у него есть самосознание и тому подобные вещи. Это, конечно же, не так», — поясняет «Континенту Сибирь» эксперт в области ИИ — доктор философских наук, сопредседатель секции «Нейрофилософия» Совета по искусственному интеллекту при президиуме Российской академии наук Дмитрий Винник.

Ученые скептики считают, что ИИ ещё очень далек от нашей повседневной жизни, а тот самый продукт мощной пиар-кампании, развернувшейся в последнее время в СМИ, называют не иначе, как «ИИ — имитация интеллекта». Другие же утверждают, что ИИ, во многих своих проявлениях ─ уже наш постоянный спутник в виде смартфонов и других гаджетов. Так как же все-таки он выглядит, и с чем его едят? — «В последние 10-15 лет под ИИ, как правило, понимают технологии машинного обучения, основанные на нейрокомпьютерах. Как раз эти технологии и совершили в этот период времени огромный рывок в развитии. Они берут свое начало от перцептронов, компьютеров, разработанных ещё в середине ХХ века. В самом общем виде архитектура перцептронов напоминает по принципу своей работы нервную ткань», — продолжает Дмитрий Винник.

У нейрокомпьютеров и нейронных сетей, отличная от привычной фон Неймановской, архитектура. В ее основу заложена математическая модель восприятия информации человеческим мозгом. Первые такие компьютеры имели возможность распознавать изображение, это и сегодня одна из основных областей их применения. Хотя список полезных функций весьма впечатляющий: распознавание изображений, лиц, речи, поведения — широкое применение в системах безопасности; поддержание тонкого равновесия между параметрами, задачи синхронизации и оптимизации; решение сложных транспортных задач, управление светофорными сетями и системами навигации; обработка больших объемов электронной документации, а также надзорные функции в финансовой сфере — выявление сложных схем ухода от налогов. Для поборников беспристрастности сегодня разрабатываются системы автоматического судопроизводства.

Широкая практика применения ИИ и её анализ сегодня дают ученым пищу для размышления и о природе человеческой, рассказывает нейрофилософ Дмитрий Винник: «Одна из основных областей применения ИИ сегодня — это получение нового знания на основе анализа огромных массивов данных и большого числа параметров, что неподвластно обычному человеческому мозгу. Порой результаты просто поразительны. Возможно, наша интуиция работает подобным образом. Мы иногда уверены в чем-то без явной причины. Возможно, это наш мозг на основе обработки опыта приходит к неочевидным выводам, которые нельзя объяснить рационально».

А что же рисование? Та самая пресловутая нейросеть Midjourney, повергшая кого в восторг, кого в уныние, создает при помощи ИИ яркие и выразительные изображения по заданным текстовым описаниям. Но искусство ли это? И надо ли бояться конкуренции художникам? «С точки зрения творчества… Вечный вопрос: может ли машина любить? Мы как всегда к этой теме возвращаемся в этом вопросе. И творческих людей всегда будет волновать человечность, человеческие эмоции и человеческие отношения. Да, нейросети сегодня на время становятся конкурентами представителей творческих профессий. Но это лишь очередной интересный этап. Так было во все времена, если вспомнить историю… Когда придумывали печатный станок, фотографию, кино все боялись и говорили, что изобразительное искусство на этом завершится. Но искусство каждый раз претерпевало трансформацию. Человек, творец продолжал дальше искать, мыслить… И собственно, что в итоге мы видим: стили поменялись, направления поменялись, появились новые материалы и… искусство стало другим. Это даже полезно с точки зрения эволюции искусства», — считает руководитель Детской академии художественного творчества и дизайна НГПУ Татьяна Павленко.

ИИ ─ не только мотиватор эволюции искусства. Преподаватель отмечает, что возможности ИИ несомненно полезны и в современной педагогической деятельности как в плане подбора и сортировки информации, так и в плане постановки техник. Полезны как инструмент и как катализатор творческих процессов. На текущем этапе техническая часть в чем-то выше у нейросетей. Рука человека несовершенна, но человек совершенен мыслительной деятельностью. А творческое мышление всегда дает толчок к развитию в любой отрасли. «Настоящее творчество — это создание чего-то принципиально нового. Принято считать, что это свойство исключительно естественного разума. А что сегодня делает ИИ, нейросети? — Это компиляция известных творческих систем. Считаю, что настоящим творцам ничего не угрожает. А вот плохих художников и писателей алгоритмы и скорости обработки информации ИИ, конечно же, подвинут. Почему? — Дело в том, что резонёры и компиляторы работают шаблонно, по сути, так же, как нейросети ищут мотивы и образы для своего творчества в чужих картинах и текстах в интернете. Думаю, что место для человеческого, «человекоизмеримого» искусства несомненно останется», — продолжает доктор философских наук Дмитрий Винник.

Переживать о конкуренции с нейросетями — дело третье. ИИ стремительно внедряется и становится составляющей частью жизни современного общества, предлагая не только новые бонусы и выгоды, но и ставя новые вопросы, формулирует проблему Татьяна Павленко: «Про искусство рассуждать прекрасно, и мы верим, что найдем здесь новые пути и сделаем ИИ своим инструментом, как кисти, краски, фотоаппарат и компьютер. Это явление уже есть и его нельзя игнорировать. Необходимо осознавать, что мы как раз те люди, которые должны сегодня выстраивать и регулировать эти новые отношения».

А регулировать, как выясняется, есть чего, начиная от вопросов безопасности и заканчивая вопросами законотворчества. «Искусственный интеллект и интеллектуальная собственность — это сфера, в которой в полной мере еще не оформились нормативные правовые акты. На сегодня в мире формируются пока только правовые подходы и отношения, причем в разных странах они могут иметь существенные различия. Как обычно в истории цивилизации законотворческая деятельность отстает от изменений в обществе, и пока это, — так называемая, «серая зона». В ближайшее время будут созданы прецеденты, которые, возможно, и лягут в основу новых законов», — объясняет «Континенту Сибирь» руководитель практики интеллектуальной собственности ЮК «Гребнева и Партнеры» Андрей Колесников.

На сегодня в этом вопросе специалисты выделяют две основных дискуссионных темы. Первая из них — возникает ли в отношении продукта деятельности программы, основанной на ИИ, интеллектуальное право, и является ли эта деятельность творческой и интеллектуальной, продолжает юрист: «Ведь изначально защита интеллектуальных прав возникла по отношению к творческой деятельности человека, в том числе и для компенсации затрат и стимулирования процесса созидания. В отношении к данной проблеме есть специалисты, которые предлагают считать автором продукта (контента), созданного ИИ, создателя программы. Другие, напротив, считают, что продукт, созданный в процессе автономной работы программы, не может признаваться объектом интеллектуального права. И третьи призывают оценивать долю участия человека в создании конкретного продукта от ИИ».

Общеизвестно, что нейросети, поражающие публику умением вести диалог или генерировать нереальные изображения, обучаются на реальных текстах, картинах и фотографиях. Отсюда происходит вторая дискуссионная тема в отношениях между ИИ и интеллектуальной собственностью — нарушают ли программы, созданные на основе ИИ, интеллектуальные права авторов? «Здесь очень важным является аспект раскрытия алгоритмов работы нейросетей, генерирующих оригинальные изображения и видео. Из публикаций в СМИ известно, что большинство из них работает на основе обучения и компиляции ранее созданных изображений и видео, у которых есть реальные авторы и правообладатели. В настоящее время в США один из крупнейших фотобанков подал иск к разработчику такой нейросети. Разрешение этого спора как раз и может стать одним из прецедентов, закладывающих базу будущих правовых отношений с ИИ», — пояснил Андрей Колесников.

Несомненно, что за спором между Getty Images и разработчиком алгоритма Stable Diffusion, компанией Stability AI в окружном суде штата Делавэр в США будут следить тысячи заинтересованных специалистов по обе стороны океана. Но юридические конфликты далеко не единственный вызов, который привносит в жизнь ИИ. За всё в этом мире приходится платить деньгами, временем, информацией и свободой. «Мы достаточно легко адаптируемся к этой новой реальности, но не все так безоблачно. На мой взгляд, страхов и рисков по поводу ИИ, его возможностей и их применения достаточно много. Необходимо, чтобы уровень осведомленности общества на этот счет был достаточным. Потому что техники используются совсем не безобидные, посмотрите, это и вмешательство в частную жизнь, технологии манипулирования общественным мнением, подмены фактов. Существует опасность, что в определенный момент мы можем погрязнуть в болоте, не понимая где правильная, а где неправильная информация. Мы должны об этом задумываться», — поделилась опасениями Татьяна Павленко.

Как выясняется проблемы безопасности при использовании ИИ являются наиболее ключевыми. В то время, когда одни структуры развивают, тренируют и повсеместно внедряют свои нейросети, другие — изучают их ошибки, сбои и скрытые опасности. Считается, что сегодня с точки зрения безопасности у ИИ есть три класса рисков. «Первый класс рисков, заключается в том, что данные, которые являются персональными данными пользователя могут быть использованы ИИ для построения определенных прогнозных моделей. И в дальнейшем, на основании этих моделей, будут приниматься решения, ущемляющие права субъекта. Иначе говоря — сегрегация на основе данных, которые анализируются с использованием ИИ», — рассказывает эксперт в области ИИ — заместитель директора Центра компетенций Национальной технологической инициативы «Технологии доверенного взаимодействия» Руслан Пермяков.

Второй класс рисков — непрозрачность и неустойчивость работы алгоритмов (правил) ИИ. Попросту говоря, что и как считает ИИ, который создан на технологиях нейронных сетей, реально никто не знает. Потому что это система параметрических уравнений, и на основании чего принимаются те или иные решения неизвестно, продолжает Руслан Пермяков: «Плюс проблема, так называемого «обмана ИИ» или «отравленных данных». В 2013 году на одной из конференций разработчик ИИ показал, что если взять обыкновенную фотографию и наложить на неё специально сконструированный шум, то ИИ перестанет её распознавать. Очень наглядно ошибки ИИ выглядят именно на изображениях, но точно такие же шумовые модели могут быть использованы для обмана речевых анализаторов и при анализе больших данных. Главная проблема здесь в том, что разработчик или тот, кто использует ИИ, не знает, когда он ошибется — та самая, неустойчивость работы алгоритмов. В какой-то момент система перестает корректно работать, и если мы говорим, про использование ИИ при выписывании штрафов за нарушение ПДД, то это не критично, а если — в системе принятия врачебных решений или при управлении сложными объектами, то цена ошибки становится сверхкритичной».

Ну и самая главная проблема опасности ИИ — это люди, те, кто его разрабатывает, настраивает, использует. На поверку выясняется, что ИИ не такой уж и искусственный. «Если исходить из того, что ИИ — это какой-то гигантский мощный компьютер, то не думаю, что он сам по себе может испытывать какие-то чувства и преследовать свои цели. Значит кто-то будет закладывать в него свои идеи, имитацию чувств, необходимые алгоритмы, значит кто-то реальный будет им управлять, преследуя определенные цели. Основной риск именно в этом», — считает писатель-фантаст Анатолий Шалин. «Третья проблема безопасности связанная с ИИ — это проблема того, что ИИ будет, в большинстве ситуаций, тренироваться неким внешним подрядчиком. А вот насколько подрядчик честен и, главное, профессионален — вопрос всегда открытый. Ведь ИИ является усилителем не только разума человека, но и его ошибок. Сейчас на слуху у всех впечатляющие успехи ChatGPT или нейросети от Microsoft, и за всем этим не очень видно, что человек может манипулировать данными либо на этапе создания системы и её обучения, либо на этапе её эксплуатации», — заключает Руслан Пермяков.

Как считают эксперты, сегодня одной из главных задач связанных с ИИ, является работа с главным, концептуальным, ограничением системы. Фактически ИИ моделирует процесс принятия решения человеком в той или иной уже описанной ситуации, а если ситуация изменяется, то эта модель становится неактуальной и требует перенастройки. Да, ИИ не в состоянии выявлять ошибки, которым его не научили, но он в состоянии стать индикатором наших ошибок. «Ведь если человек хочет оставаться человеком, то искусственный интеллект можно использовать исключительно как инструмент. К сожалению, в последние десятилетия под прогрессом понимается именно совершенствование инструментов. Сам же человек, в основной массе своей не совершенствуется, деградирует и превращается, в определенном смысле, в управляемого биоробота с набором функций. Меняется философия, на второй план отходят чувства и сознание, на первый выходят еда, материальные блага», — констатирует фантаст Анатолий Шалин. «Почему сегодня имеет место такое восхищение тем, что нейросеть нарисовала какую-то картинку или сгенерировала текст? Причины две. С одной стороны — мы имеем дело с мощным прогрессом технологии машинного обучения, а с другой стороны имеем падение уровня образования, интеллектуальную деградацию значительной части общества и рост уровня невежества», — продолжает философ Дмитрий Винник.

В заключительной части разговор об искусственном интеллекте переходит и вовсе в метафизическую плоскость. Ведь, как выясняется, для того, чтобы не стать рабом и жертвой своих собственных изобретений, человеку необходимо следовать самым простым правилам, выработанным многочисленными поколениями предков, не помышлявших и в мечтах ни о чём таком искусственном. «Желание ничего не делать, при этом эксплуатировать какие-то машины и механизмы, в какой-то момент может привести к окончательной деградации человека и возникновению другой цивилизации. У Станислава Лема, например, описывается кибернетическая цивилизация. Смысл такой цивилизации, если не будет человечества? Кому это всё может быть полезно? — Только инопланетянам или небольшой группе людей, задача которой, например, оптимизировать население планеты. Не об этом мечтали братья-фантасты в ХХ веке», — не без иронии резюмирует писатель Анатолий Шалин.


источник >>>

Страница: (Предыдущий)  1 ...  780  781  782  783  784  785  786  787  788  789  790  791  792  793  794  795  796  797 ...8607   (Дальше)