Оракул
This project is a student project at the School of Design or a research project at the School of Design. This project is not commercial and serves educational purposes

ИИ может предсказать будущее, но не может его создать. Это прерогатива человека.

big
Original size 1567x407

Л. Вей, К. Дин и Х. Ху. «Автоматическое обнаружение рака кожи на дерматоскопических изображениях на основе облегченной сети глубокого обучения Ensemble», 2019

В лабиринтах алгоритмов, где данные превращаются в пророчества, а код обретает голос оракула, искусство вступает в новую эру. Искусственный интеллект, словно древний провидец, пытается расшифровать тайный язык будущего, предсказывая все, от тенденций на бирже до диагнозов пациентов.

Здесь мы исследуем, как художники используют алгоритмы не только для генерации изображений или музыки, но и для критического осмысления самой природы предсказания ИИ, его возможностей и ограничений.

Художественные проекты, основанные на ИИ, превращаются в своеобразные «лаборатории будущего». Они не просто предсказывают, но и критически анализируют наши ожидания от технологий, раскрывая скрытые предубеждения и «слепые зоны» алгоритмов, которые зачастую остаются незамеченными в научных исследованиях.

Прежде чем погрузиться в мир художественных исследований природы ИИ, важно обратиться к более широкому контексту использования этой технологии, в частности, к ее применению в медицине. Этот пример поможет нам лучше понять, каким образом формируется критика ИИ в современном искусстве и почему художники акцентируют внимание на ограничениях и потенциальных опасностях алгоритмических предсказаний. Ведь именно в таких областях, как медицина, ошибки ИИ могут иметь наиболее серьезные последствия.

big
Original size 1189x389

Автоматическая сегментация опухолей головного мозга с помощью каскадных анизотропных свёрточных нейронных сетей

Original size 1588x776

Результаты сегментации почек (первая строка) и опухолей (вторая строка).

Столбец A: поперечные срезы КТ. Столбец B: сегментация вручную, выполненная экспертом. Столбец C: автоматическая сегментация с помощью CNN U-Net. Столбец D: сегментация с помощью CNN U-Net + метод обучения OV2ASSION

Одним из наиболее ярких проявлений «провидческих» способностей ИИ стала его интеграция в медицинскую диагностику. Алгоритмы, обученные на миллионах медицинских изображений, способны выявлять заболевания с высокой точностью, предсказывая их развитие и помогая врачам в принятии решений. Однако, как и любой инструмент предсказания, ИИ не лишен недостатков. Его «видение» может быть замутнено «биасами» — искажениями, возникающими из-за нерепрезентативности данных или скрытых предубеждений, заложенных в самой структуре алгоритмов.

подробнее про Биасы искусственного интеллекта и о том, почему они опасны, можно прочесть здесь

Именно поэтому разработка методов выявления и нейтрализации этих биасов становится критически важной задачей. Одним из подходов к решению этой проблемы является методология, описанная в статье, посвященной инструменту СимБА (Simulated Bias in Artificial Medical Images). СимБА — это своеобразный «тренажер» для алгоритмов, создающий синтетические медицинские изображения с искусственно усиленными биасами. Эти «испорченные» данные используются для обучения диагностических моделей ИИ, чтобы повысить их устойчивость к реальным искажениям, которые могут присутствовать в настоящих медицинских изображениях.

Original size 1738x1293

пример работы нейронной сети СимБА

Этот проект интересен с художественной точки зрения, так как представляет собой пример рекурсивного использования ИИ: одна модель искусственного интеллекта используется для обучения другой модели преодолевать собственные недостатки. SimBA, осознанно создавая искаженные данные, имитирует процесс возникновения ошибок в человеческом восприятии и мышлении. Этот процесс «обучения через ошибку» можно рассматривать как метафору художественного творчества, где эксперимент и ошибка являются неотъемлемой частью поиска новых форм и смыслов.

Машина учит машину не ошибаться, ошибаясь сама

Original size 1189x469

Сегментация изображения с помощью CNN для выделения опухолей

— эта формулировка подчеркивает парадоксальность и поэтичность данного подхода, превращая техническое решение в своеобразный арт-объект. Проект ставит вопросы о природе творчества, объективности технологий и границе между научным исследованием и художественным вы высказыванием.

«Dejaview» 2024

В современном мире, охваченном сетями видеонаблюдения, алгоритмы все чаще берут на себя роль предсказателей преступлений, пытаясь предотвратить нарушения закона еще до их совершения. Система «Дежавю», разработанная в Южной Корее, анализирует данные с камер видеонаблюдения, выявляя потенциально опасные ситуации и предупреждая правоохранительные органы. Этот проект, подобно ИИ в медицине, демонстрирует стремление использовать алгоритмы для прогнозирования и предотвращения нежелательных событий. Однако, он также поднимает сложные этические вопросы о границах наблюдения, о потенциале для дискриминации и о роли человеческого фактора в принятии решений, основанных на предсказаниях ИИ. Эти и другие вопросы становятся предметом художественного осмысления в работах, которые мы рассмотрим далее.

Original size 1704x1136

Эс Делвин: «Портрет из поэм» 2021

Переходя от анализа биасов в науке и социуме к исследованию ИИ в искусстве, обратимся к проекту Эс Девлин «Портрет из поэм». Эта работа, представляющая собой социальную скульптуру, созданную с помощью машинного обучения, демонстрирует иной аспект «оракульной» природы ИИ — его способность генерировать тексты и создавать новые формы поэтического выражения. В «Портрет из поэм» алгоритм, обученный на миллионах стихов, выступает в роли своеобразного поэта-оракула, создавая уникальные двустишия на основе слов, предлагаемых зрителями. Каждый участник проекта жертвует одно слово, которое становится частью коллективного «портрета», сплетенного из фрагментов стихов.

Эс Делвин: «Портрет из поэм» 2021

Здесь ИИ не предсказывает будущее в традиционном смысле, но он создает новые смыслы, новые поэтические комбинации, предсказывая, какое слово может следовать за другим, какой образ может возникнуть из случайного сочетания слов и формы лица зрителя. Этот процесс алгоритмической генерации текста можно рассматривать как своеобразную форму «оракульного» творчества, где ИИ выступает в роли посредника между человеческим замыслом и случайностью, порождая неожиданные поэтические откровения.

Original size 698x257

Фрэнсис Гальтон: «композитные портреты», 1880-е

Original size 850x446

Фрэнсис Гальтон: «составной портрет», 1879

Размышляя о «провидческой» роли ИИ, нельзя не обратиться к историческим прецедентам попыток «прочитать» человека и предсказать его поведение по внешним признакам. В конце XIX века Фрэнсис Гальтон разработал метод создания «композитных портретов» путем наложения друг на друга фотографий людей, обладающих определенными характеристиками — например, преступников или больных туберкулезом. Гальтон полагал, что такие композиты раскроют «типичные» черты, присущие данной группе, и позволят выявлять склонность к определенному поведению. Параллельно с ним итальянский врач Чезаре Ломброзо развивал теорию физиогномики, утверждая, что преступников можно опознать по специфическим анатомическим особенностям. Эти теории, хоть и были впоследствии признаны псевдонаучными, демонстрируют стремление человека найти связь между внешним обликом и внутренней сущностью, предсказать поведение на основе визуальных данных.

Современные алгоритмы ИИ, анализируя огромные массивы изображений и используя сложные методы распознавания образов, в некотором смысле продолжают эту традицию.

Однако, в отличие от Гальтона и Ломброзо, ИИ оперирует не с абстрактной информацией, а с конкретными данными, что делает его предсказания более точными и обоснованными. Тем не менее, важно помнить об опасности биасов и ошибочных интерпретаций, которые могут возникнуть и при использовании самых совершенных алгоритмов.

Original size 1074x480

Чезаре Ломборзо, женские лица, склонные к преступлениям, 1876

Тем не менее, важно помнить об опасности предубеждений и ошибочных интерпретаций, которые могут возникнуть и при использовании самых совершенных алгоритмов. Ярким примером критического осмысления этой проблемы в искусстве служит проект Клемана Ламбле «Математика регрессии». В работе художник обращается к базе данных фотографий арестованных, которая используется для обучения алгоритмов распознавания лица.

Original size 2660x1438

Клеман Ламбле: «Математика регрессии», 2019-2022

55 тысяч изображений, собранных системой уголовного правосудия США, несут на себе отпечаток системного расизма, и Ламбле использует ИИ, чтобы выявить и визуализировать эти скрытые предубеждения.

Original size 3482x1300

Клеман Ламбле: «Математика регрессии», 2019-2022

Создавая композитные портреты по полу и возрасту, алгоритм генерирует «идеальных алгоритмических подозреваемых» — стереотипные образы, отражающие расовые биасы, заложенные в технологии. Однако, Ламбле идет дальше простой констатации проблемы. Используя принцип суперпозиции, он сохраняет анонимность отдельных лиц, не допуская дальнейшей эксплуатации человеческой индивидуальности.

Original size 3464x1438

Клеман Ламбле: «Математика регрессии», 2019-2022

«Математика регрессии» — это не просто художественный проект, но и акт сопротивления, направленный против «нормализации» расизма через технологии. Он демонстрирует, как ИИ, обученный на искаженных данных, может усиливать существующие социальные неравенства, создавая замкнутый круг дискриминации.

Original size 1422x927

Сяолинь Ву, Си Чжан: «Автоматизированный вывод о преступности», 2011

Клемент Ламбеле: «Оракул», 2018

Теперь обратимся к проекту, который исследует саму природу оракула в контексте современных технологий. «Оракул» Клемана Ламбле — это интерактивная мультимедийная инсталляция, представляющая собой своеобразный алтарь будущего. Лишенный гендера, идеологии и предубеждений, этот цифровой оракул предлагает посетителям советы и прогнозы, основанные на анализе данных, и обратной связи от самих участников. «Оракул» не претендует на абсолютную истину, но он стимулирует размышления о нашем настоящем и будущем, о нашей вере в технологии и о границе между предсказанием и случайностью.

Клемент Ламбеле: «Оракул», 2018

В эпоху неопределенности «Оракул» становится не столько источником готовых ответов, сколько катализатором для критического осмысления роли технологий в нашей жизни и нашего собственного места в будущем.

Он заставляет нас задуматься о том, насколько мы готовы довериться алгоритмам и какую цену мы готовы заплатить за иллюзию предсказуемости в мире, который становится все более сложным и непредсказуемым.

Original size 2378x498

Скотт Итан: «Пересекая Шибую», 2024

В проекте «Пересекая Шибую» Скотт Итан использует ИИ, который извлекает художественный смысл из данных общественного наблюдения. Алгоритмы анализируют движение толпы на перекрестке Шибуя, присваивая каждому прохожему идентификатор и «вероятность человечности».

Цвет каждого элемента коллажа зависит от направления движения, времени пребывания в кадре и той самой «алгоритмической человечности».

Loading...

ИИ превращает хаос городского потока в постоянно меняющуюся визуальную поэму, провоцируя размышления о цене технологического прогресса для нашей приватности.

Original size 1280x595

Скотт Итан: «Гиперболическая композиция I», 2018 (слева), «Гиперболическая композиция II», 2018 (справа)

Original size 2560x1210

Скотт Итан, «Развлечения с кофеином», 2019

Скотт Итан, «Человечество (Падение проклятых)», 2020 (слева), «запутанный», 2019 (справа)

Original size 1735x1417

Скотт Итан: «запутанный», 2019

«Оракул» заставляет нас задуматься о том, насколько мы готовы довериться алгоритмам и какую цену мы готовы заплатить за иллюзию предсказуемости в мире, который становится все более сложным и непредсказуемым. В своей сути, стремление к предсказанию будущего — это отражение глубинной человеческой потребности в контроле и понимании окружающего мира. Искусственный интеллект, с его способностью анализировать огромные массивы данных и выявлять скрытые закономерности, становится мощным инструментом в этом поиске. Он позволяет нам заглянуть за границы привычного, расширить горизонты восприятия и, возможно, даже приблизиться к разгадке тайн будущего. Однако, как и любой оракул, ИИ не дает однозначных ответов. Его предсказания — это лишь вероятностные модели, подверженные ошибкам и искажениям. Именно поэтому критическое осмысление роли ИИ как «провидца», а также поиск баланса между доверием к технологиям и сохранением человеческой интуиции и критического мышления становятся ключевыми задачами в эпоху цифровой трансформации.

ГЛОССАРИЙ


Оракул
(от лат. oraculum — «божественное откровение, предсказание»)
 — в древности место, где люди обращались к божествам за советами и предсказаниями будущего. Оракулом также называли самого жреца или прорицателя, который истолковывал волю богов. В современном контексте оракул — это любой источник предсказаний или прогнозов, будь то человек, технология или явление природы. В связи с развитием искусственного интеллекта понятие оракула приобретает новое звучание. Алгоритмы, способные анализировать огромные массивы данных и выявлять скрытые закономерности, все чаще воспринимаются как современные оракулы, предсказывающие будущее в различных сферах человеческой деятельности.

Chapter:
1
2
3
4
5
6
We use cookies to improve the operation of the HSE website and to enhance its usability. More detailed information on the use of cookies can be fou...
Show more