Ghibli-фильтр в ChatGPT: весёлый тренд или угроза конфиденциальности?

0 Время чтения: 5 мин. folvabizz_editor

Уже больше недели народ массово штурмует сервера OpenAI, чтобы затестить новую фишку ChatGPT — генерацию изображений, превратившуюся в настоящий интернет-бум. Самая вирусная фича? «Ghiblify» — превращение обычных фото в анимешные иллюстрации в стиле студии Ghibli.

Инстаграм, Реддит, Дискорд, Фейсбук, X — куда ни глянь, всюду завалено ИИ-портретами в духе «Унесённых призраками» или «Тоторо». Люди загоняют в нейросеть свои селфи, фото домов, отпускные кадры и даже исторические события. Но когда первая волна восторга схлынет, не окажется ли, что это всё не так уж безопасно?

Некоторые эксперты уже вовсю бьют тревогу: у тренда есть и тёмная сторона — от проблем с авторскими правами до серьёзных вопросов о приватности данных.

На прошлой неделе OpenAI расширила возможности ChatGPT, дав пользователям генерацию картинок в разных художественных стилях. Однако больше всего зашёл именно «Ghibli-фильтр«, который одним кликом превращает фото в милую анимацию.

Причём «залипли» не только простые пользователи. Сам Сэм Альтман (CEO OpenAI), Илон Маск, топы из Ripple и другие крупные фигуры уже выложили свои анимешные версии в соцсетях. Всё выглядит настолько массово и безобидно, что можно подумать — раз все этим пользуются, значит, подвоха нет.

Но есть нюанс. Альтман признался в посте на X (27 марта), что их GPU буквально «плавятся» из-за перегрузки сервиса. Только вдумайся: один этот тренд добавил OpenAI более миллиона новых юзеров. А это значит что? Больше пользователей — больше данных.

И вот тут закрадывается вопрос: весь этот шум — просто хайп, или OpenAI сознательно расширяет свою базу данных за счёт наивных юзеров, которые радостно сливают свои лица для обучения ИИ?

Любой ИИ-модель нужна огромная база данных, на которой её натаскивают. Проблема в том, что туда, скорее всего, попадает и куча защищённого авторским правом контента.

Художники и дизайнеры уже на взводе: ИИ учится копировать их стиль без их ведома, а значит, постепенно может просто их заменить. Один из самых громких голосов на эту тему — Эд Ньютон-Рекс, CEO некоммерческой ИИ-организации Fairly Trained. Он утверждает, что нейросети буквально «пожирают» чужие работы.

Кстати, сам Studio Ghibli официально НИКОГДА не разрешала использовать свой стиль для ИИ-контента. Более того, сооснователь студии, Хаяо Миядзаки, вообще терпеть не может ИИ-искусство.

В одном из интервью в 2016 году он увидел ИИ-анимацию и жёстко прошёлся по ней:

«Люди, создающие это, не понимают, что такое боль. Мне мерзко смотреть на это. Это оскорбление самой жизни.»

Так что Ghibli-стиль в ChatGPT — это, по сути, именно та коммерциализация искусства, которую он всегда презирал.

Но OpenAI не спешит ставить запреты. Почему? Потому что пока никто серьёзно не прессует их за это, а значит, можно продолжать грести тонны пользовательских данных.

Прежде чем получить Ghibli-селфи, ты загружаешь в ChatGPT своё фото. А вот тут стоп-кадр: а ты вообще думал, что именно происходит с твоими изображениями?

Допустим, OpenAI реально может использовать их для дальнейшего обучения моделей. Где гарантия, что твои фотки не сохраняются и не попадут в базу данных будущих ИИ-проектов?

Рэйчел Тобак, CEO компании SocialProof Security, заявляет, что большинство людей даже не задумываются: они загружают фото, а потом уверены, что они удаляются. А на деле? Может быть, OpenAI просто копит новую базу лиц.

29 марта эксперт по ИИ-приватности Луиза Яровски напомнила, что согласно европейским законам (в частности, GDPR, статья 6.1.a), загружая фото, ты автоматически даёшь OpenAI разрешение на его обработку.

«Тысячи людей добровольно отдают свои лица ChatGPT. Это значит, что OpenAI получает гигантский массив новых данных для обучения своих ИИ-моделей — и бесплатно.»

OpenAI пока не выпустила официальное заявление по этому поводу, но утверждает, что «конфиденциальность и безопасность остаются приоритетом». В понедельник их представитель заявил, что компания «минимизирует сбор личных данных и не использует частную пользовательскую информацию для обучения моделей».

Кроме того, OpenAI предлагает пользователям удалять контент самостоятельно и отключать его от использования для тренировки моделей.

В сети уже гуляют теории, что вся эта «Ghiblизация» — не что иное, как самая масштабная скрытая кампания по сбору биометрических данных.

Некоторые пользователи X пишут: «Это просто гениальный способ загнать миллиарды людей в систему, где они по доброй воле сдают свою физиономию ИИ.»

Но не все согласны с такой паникой. Например, кибер-инженер на X уверяет, что ИИ не хранит изображения после обработки:

«ChatGPT НЕ запоминает картинки после трансформации. Можно просто почистить кеш для подстраховки, но на данный момент AI не способен обратно восстановить оригинал изображения и добавить его в базу.»

Другие отмечают, что паника вокруг ИИ-артов смешна, учитывая, что большинство людей бездумно хранят свои фото в облаках, где с безопасностью вообще всё туманно.

«Забавно, как люди носятся с тем, что OpenAI «украдёт» их фото, но при этом заливают все свои личные снимки в Google Photos и iCloud, думая, что там безопаснее. Лол.»

Комментарии (0)

Новости о цифровых валютах, финтех-трендах и финансовых инновациях

CoinSpot.io - крупнейший в рунете ресурс о цифровых валютах, финтех-трендах и финансовых инновациях. Мы рассказываем о технологиях, стартапах и предпринимателях, формирующих облик финансового мира. Венчурные инвестиции, p2p и цифровые технологии, криптовалюты, аналитика и обзоры - все, что нужно знать, чтобы быть в тренде и зарабатывать.

Полное или частичное использование материалов сайта разрешается только с письменного разрешения редакции, при этом ссылка на источник обязательна!

Подпишитесь на Email рассылку о новые статьях и важных новостях от Coinspot.io
Подпишись и будь в курсе самого главного.

Советы экспертов, актуальные комбо, постоянные розыгрыши.

Новостная выжимка в понятном формате. Мы бережем ваше время.