В начале 2022 года компания OpenAI (основана в том числе Илоном Маском) представила систему на базе искусственного интеллекта DALL·E 2, которая создаёт изображения из описания. И чем подробнее будет написан запрос, тем лучше проявится картинка.
В народе её называют «нейросеть», но по своей сути и составу это готовый продукт, основанный на нескольких предыдущих разработках OpenAI.
Картинка на выходе не просто соответствует запросу, а пугающе точно воспроизводит его контекст.
Если загуглите тему в рунете или зайдёте в зарубежные источники, почти точно не поймёте даже самую простую схему работы этого алгоритма. Я перерыл сотни источников и сделал доступный каждому мини-гайд по механизмам DALL·E 2, которые из фразы делают произведения искусства.
Ниже я подробно на трёх уровнях – абстрактном, базовом и поэтапном – объясню, как создатели «убийцы художников» (не совсем убийцы) разработали магический алгоритм.
Содержание:
- Примеры работ
Уровень 1. Простой
Уровень 2. Как всё связано
Уровень 3. До мелких деталей
Недостатки и острые проблемы
- Сначала посмотрите, на что способен DALL·E 2
- Уровень 1. Самое простое объяснение
- Уровень 2. Как всё работает вместе
- Уровень 3. Разбор каждого шага по отдельности
- 0. Контекст, разработчики и архитектура
- 1. Кодирование текста в язык нейросети
- 2. Создание наброска картинки в Латентном Пространстве
- 3. Декодирование через диффузную модель
- 4. Апсемпл
- Лимиты, слабости и проблемы DALL·E 2
- Большое поле, которое изменит наши жизни
Сначала посмотрите, на что способен DALL·E 2
Туманно, солнце светит ей на лицо. Вид с улицы
Фото высокого качества
Освещение одним прожектором, снято на Canon 5D Mark II
из далёкого будущего с красивым закатом и дождём
Снято на зеркальную камеру
Снято на зеркальную камеру
стоит в тропической теплице. Снято на зеркальную камеру
Снято на плёночную мыльницу со вспышкой
Снято на зеркальную камеру
Снято на зеркальную камеру
Снято на зеркальную камеру
который пьёт кофе из Старбакса и смотрит в iPhone
Вид сзади, глубина резкости, реализм, объектив 200 мм, 4К
Бетонные стены, с большими деревянными панелями в качестве акцента, сад с бассейном.
Пасмурное освещение, архитектура, 4K, 14 мм, f/2.5, ISO 300
Пасмурное освещение, архитектура, 4K, 14 мм, f/2.5, ISO 300
первый запечатлённый НЛО на конгрессе в Манхэттене.
Люди с трепетом смотрят на огромный НЛО перед ними
Люди с трепетом смотрят на огромный черный матовый НЛО перед ними.
50 мм, Canon EOS, информационное агенство Reuters
Как видите, поле для творчество в вопросе объектов кажется безграничным, ровно как и стили, в которых можно сделать запрос. Фотореализм, стиль определённого художника, эпохи, направления живописи развязывают руки.
Более того, DALL·E 2 умеет изменять и достраивать элементы картинки, а ещё добавлять новые детали в готовую сцену.
Ниже разберёмся, каким образом эта магия происходит на трёх уровнях глубины. А в конце взглянем на проблемы, которые пока остаются.
Уровень 1. Самое простое объяснение
DALL·E 2 состоит из трёх больших частей, базу для которых разработали в Google, но «собрали» в OpenAI.
Первая нейросеть «читает» текст и рисует «черновик» будущего изображения.
Вторая нейросеть превращает «черновик» в маленькое конечное изображение.
Третья нейросеть увеличивает эту маленькую картинку в 16 раз, добавляя необходимые детали.
Готово!
Поэтапно это происходит так:
1. Первая нейросеть называется CLIP, она переводит наш написанный (человеческий) текст в компьютерный язык в виде цифр.
2. Далее CLIP превращает этот набор цифр в таблицу с другими цифрами. Такая таблица играет роль «наброска» или «скелета», по которому создаётся конечное изображение. Чтобы всё сработало, CLIP тренировали на 600 миллионах картинок и подписей к ним.
3. «Черновик» переходит во вторую нейросеть под названием GLIDE.
4. Вторая нейросеть GLIDE берёт первоначальный компьютерный текст из пункта 1 и полученную схему из пункта 2, совмещает данные с них. На основе такого микса она создаёт серый зернистый квадрат, из которого постепенно убирает зерно и тем самым проявляет картинку в плохом качестве. Этот метод проявки называется «применение Диффузной модели».
5. Третья нейросеть увеличивает качество картинки в 16 раз и показывает нам финальный результат.
Но эти этапы озвучены весьма упрощённо: на самом деле в DALL·E 2 работают не сами нейросети, а только их части. Например, изначально CLIP вообще не умела рисовать изображения, её задача была ровно противоположной: описывать текстом то, что она видит.
Рассмотрим эти моменты подробнее.
Уровень 2. Как всё работает вместе
Для начала небольшая справка, чтобы вы поняли текст дальше.
- Вектор, text embedding, image embedding – набор цифр, который описывает каждое слово или часть изображения. В каждой нейросети он свой.
Энкодер, кодировщик, encoder – нейросеть, которая шифрует человеческий текст и изображения в понятный другой нейросети язык в виде векторов.
Декодер, decoder – нейросеть, которая превращает векторы в понятный человеку язык или изображение.
Трансформер – общее название для энкодеров и декодеров.
Диффузная модель – метод проявки изображений из чистого шума, с помощью которого работает декодер.
Латентное пространство, prior – место, где после тренировки нейросети в ней хранятся все векторы текстов и изображений в особом, понятном ей взаимоотношении друг к другу. Представьте огромное поле, где каждый предмет лежит на правильном месте по принципу, понятному только охраннику этого места. Только это не 2D-плоскость, а состоящая из более чем 300 пространств.
Общая структура DALL·E 2 в сухом виде звучит так:
1. Кодировщик Word2Vec превращает слова в математические векторы, которыми оперирует нейросеть CLIP.
2. Векторы отправляются в . Это такое место, где все слова находятся на разном расстоянии друг от друга в зависимости от своих категорий, понятных только нейросети. В DALL·E 2 это место называют prior.
2. В пространстве prior векторы текста используются, чтобы подобрать векторы будущего изображения. Этим тоже занимается часть нейросети CLIP.
3. Диффузная модель берёт текстовые и визуальные векторы и выдаёт картинку в разрешении 64 х 64.
4. Финальное изображение масштабируется до 1024 х 1024 пикселей с помощью двух дополнительных диффузных моделей.
По своей сути DALL·E 2 это не нейросеть, а собранный из разных программ продукт, в профессиональной среде его называют . Условно он работает на базе двух ранних продуктов компании-разработчика OpenAI: CLIP и GLIDE. В конце применяется третья нейросеть для увеличения разрешения картинки.
Взяты именно элементы из CLIP и GLIDE, а не программы целиком. У первой заимствовали метод понимания контекста, у второй качество его визуализации.
Изначально нейросеть CLIP обучена правильно описывать то, что происходит на картинке – то есть заниматься противоположной DALL·E 2 задачей. CLIP тренировали таким образом: давали несколько пар [пиксельное изображение – текст], нейросеть переводила их в две сопоставимые метрики в виде чисел, которые затем соотносились друг с другом по степени похожести.
Схема тренировки CLIP на базе схожести, а не точного поиска пар
И тем самым CLIP училась подбирать описание к изображению. Все связи между словами хранятся в виде векторов внутри Латентного пространства. Векторами они являются, потому что находятся на разном расстоянии друг от друга и в зависимости от скрытой категории эта связь то дальше, то ближе.
Это умение чувствовать контекст пригодилось в DALL·E 2.
Представьте рисунок домика с деревом и солнцем. То, каким вы представили рисунок, и есть результат CLIP.
Вы будете детали этого видения, но не сможете вообразить мелкие элементы моментально.
Так схематично выглядит латентное пространство
CLIP превращает текст в text embedding – цифровое описание букв. Но это не шифрование лексики вроде двоичного кода, а кодирование слов по их смыслу в виде токенов и векторов. Во время тренировки они ранжируются более чем в 300 категориях, точного состава и ранжирования которого разработчики не знают, поскольку CLIP сформировала их сама.
Схема векторизации слов
А вот GLIDE преобразует текст в изображение. Прямо как DALL·E 2, но с меньшим количеством шагов и меньшей точностью. Эта нейросеть вполне мог называется DALL·E 1,5, если бы OpenAI хотела давать громкое название каждой своей генеративной модели.
Метод работы GLIDE формируют тот самый реализм, который всех шокирует. Но не потому что он такой умный, а потому что у него уже есть »скелет», созданный алгоритмами CLIP.
Именно GLIDE може менять части изображения с учётом контекста
Закажите профессиональному художнику нарисовать то, что вы представили. Результат и будет работой GLIDE.
Художник отрисует каждый штрих в том стиле, в котором вы попросите, и при этом сделает это точно, потому что уже обычен технике рисования.
GLIDE «рисует» финальное изображение через Диффузную модель – это такой механизм, когда берётся серый квадрат, состоящий из пиксельного шума, и из него поэтапно убирается шум, пока не останется чёткая картинка с нужным содержимым.
Обучение диффузной модели
Как работает диффузная модель
Вы слышали слово на уроках физики: если брызнуть в воздух духи, их молекулы сначала будут сконцентрированы и сильно ощутимы, а затем постепенно равномерно смешаются с молекулами воздуха, после чего появится новая ароматная субстанция из воздуха и духов. Равномерное распределение молекул разного состава называется диффузией.
По тому же принципу тренировали GLIDE. Его обучали постепенно добавлять шум в виде пикселей к чётким фотографиями, картинам, постерам, а затем заставляли обернуть процедуру вспять.
https://www.iphones.ru/wp-content/uploads/2022/08/Диффузия.mp4
Диффузия одних молекул в другие в воздухе
В конце специальная программа апскейла «наращивает» детализацию, в два этапа разбивая каждый пиксель на четыре, а затем ещё раз на четыре.
Уровень 3. Разбор каждого шага по отдельности
0. Контекст, разработчики и архитектура
Некоторые изображения получаются слишком жуткими
DALL·E 2 разработана организацией OpenAI, которую основали Илон Маск и инвестор-разработчик Сэм Альтман для того, чтобы «искусственный интеллект помогал человечеству, а не уничтожил его, вырвавшись из-под контроля». Сейчас Маск продолжает выделять компании деньги, но не участвует в её управлении.
Во многом OpenAI следует своим словам. Публикует исследования, описывает процессы, не держит методы работы алгоритмов за закрытыми дверьми и даёт доступ к некоторым разработкам на GItHub.
При этом компания быстро вводит свои разработки в коммерческое поле, цикл от создания до монетизации составляет примерно полгода. Так случилось с DALL·E 2: бесплатный доступ заканчивается после 50 попыток в первом месяце и после 15 попыток в последующие.
DALL·E 2, несмотря на название, стала третьей большой генеративной моделью изображений от OpenAI.
Первой была DALL·E, второй GLIDE. Наработки из них обеих используются в DALL·E 2.
В свою очередь, первая DALL·E по структуре задействует другую генеративную модель от OpenAI под названием CLIP. Она описывает изображения текстом, используя для этого трансформер, превращающий буквенный текст в text embedding (единого русскоязычного перевода для этого термина нет), а затем в image embedding, описывающий векторный состав будущего изображения.
1. Кодирование текста в язык нейросети
Чтобы понимать человеческий текст, DALL·E 2 использует модифицированную версию нейросети Word2Vec (разработана в Google). Иначе её называют трансформером. Прямая задача в том, чтобы превратить слова в набор векторов, которые на следующем этапе обработает другая нейросеть (CLIP).
❗️ Техническим названием для DALL·E 2 выбрали unCLIP, поскольку он использует технологию CLIP обратным путём.
Нет сложности в том, чтобы обернуть изображение в понятный для классификации набор чисел. Достаточно задать каждому цвету степень его яркости и систематизировать его оттенок. Например, чёрный это 0.00, серый будет 0.50 а белый это 1.00. Изменяя яркость, легко натренировать нейросеть на предсказание следующего числа: когда она выдала пиксель «9», а нужно получить «10», вы просто говорите «неправильно, но близко».
Схема «разведения» слов по смыслу и вероятным связям внутри нейросети
С текстом так не получается: если систематизировать его по словарю тем же принципом, то порядковые номера по алфавиту дадут мало толка. При ошибке выбор будет ограничен между «да» или «нет». Не получится указать нейросети, что она была близко, когда вместо «кот» выдала «крот».
Со словами их связь формируется за счёт их общего контекста. Например, словам «кот» и «пёс» будут близки «домашнее животное», «кормить», «играть», «хороший» и так далее.
Поэтому слова превращают в векторы: набор чисел, которые, если смотреть на это визуально, выглядит как многопространственный график, где каждый объект находятся близко или далеко друг от друга.
Для тренировки этого процесса загружается огромный объём данных (вся Википедия, к примеру), который прогоняется через мощные компьютеры. Задаются правила, по которым в разных предложениях нужно подставить слово. Например, в «Хорошего вам … !» нейросеть должна найти слово «дня». Во время обучения отбирается группа слов, которые нейросеть сжимает до понятных ей групп и на выходе находит связь между этими словами, их близость друг к другу.
В итоге каждое слово выглядит как набор характеристик в понятных нейросети категориях по отношению к другим словам. Например:
Видно, что «женщина» относится к слову «король» как [0,02] (почти никак), к слову «королева» как [0,99] (почти однозначно), к слову «принцесса» как [0,99] и к «мальчику» как [0,01].
Далее для каждого слова набор этих характеристик контекстуально сжимается. Постепенно нейросеть учится понимать, какие слова чаще всего бывают до и после другой слова – и так на пять частей речи вперёд и назад.
Энкодер натренирован на 650 миллионах изображений (данные OpenAI, раздел С).
Такая глубокая связь между словами позволяет не только создавать реалистичные картинки, но и создавать их вариации. Модель работает таким образом, что умеет вычитать и складывать смысл одного слова с другим. Если сделать уравнение
то на выходе будет
Визуально это можно применить к чему угодно, и нейросеть разберётся, что ей нужно сделать – не только в конечном результате, но и в разной градацией. Например, вписав:
получаем поразительную трансформацию:
https://www.iphones.ru/wp-content/uploads/2022/08/Дом.mp4
Но такой визуализации не было бы без других компонентов.
После тренировки текстовых векторов данные попадают в «Латентное пространство» (latent space).
2. Создание наброска картинки в Латентном Пространстве
Связанность всех векторов в латентном пространстве позволяет делать такие интересные переходы
Следующим этапом DALL·E 2 создаёт «костяк» будущего изображения. Скелет, набросок, структуру – приблизительно этим занимаются составляющие нейросети CLIP.
Как упоминал ранее, сама по себе CLIP была создана для того, чтобы давать описание загруженной в неё картинке. И, на самом деле, энкодер из первого пункта, превращающий текст в text embedding, является составной частью CLIP. Потому что для умения понимать контекст изображение и и текст должны быть в едином «языковом» пространстве – пространстве векторов.
Схема тренировки CLIP следующая:
Текст переводится в text embedding методом из пункта выше. За базу взята нейросеть Word2Vec, созданная Google.
Изображение превращается в image embedding так, что оно сжимается и разбирается на зашифрованные пиксели. За базу взяты несколько разработок ResNet, тренированных на мощных компьютерах в течение трёх недель. Алгоритмы разработаны Google и модифицированы OpenAI.
Как кодируются изображения для тренировки CLIP.
Сначала картинка превращается в таблицу: каждая ячейка – число, которое формируется из девяти числовых значений красного, синего, зелёного и чёрно-белого слоя вокруг вокруг этого пикселя и его самого.
https://www.iphones.ru/wp-content/uploads/2022/08/Обучение-CLIP.mp4 https://www.iphones.ru/wp-content/uploads/2022/08/Сжатие-для-тренировки-CLIP.mp4
Далее нейросеть ищет объекты, на которые, вероятнее всего, нужно сделать акцент. Через длительную тренировку кодировщика она учится различить их и сопоставлять друг с другом, чтобы найти сходства. Оперируя тем самым кодом на базе пикселей.
Представьте апельсин на столе, который вполне себе хорошо видно посреди комнаты. А теперь попытайтесь разглядеть его из космоса в масштабе Млечного Пути – ничего получится, на таком уровне апельсина не существует.
По этому принципу компьютерное зрение определяет объекты в кадре. Просто превратить фотографию в таблицу из чисел будет не самым умным решением. Для тренировки достаточно ужать его до минимального разрешения и оперировать набором зашифрованных пикселей, чем сохранять все ненужные элементы.
Фактически такое закодированное изображение тоже становится «вектором» – математической интерпретацией, которая зависит от состава пикселей.
На каждом шагу тренировки CLIP получает большой и разнородный список изображений с их подписями. Они кодируются методами выше и помещаются в Латентном Пространстве.
Используя эту данные, формируются два вида пар: корректная, где изображению соотносят его верное описание, и некорректная, где изображению соотносят любое другое описание из группы.
Оба кодировщика, хоть и используют наработки Google, модифицированы OpenAI. В данном случае они натренированы находить корректные пары, чтобы создавать «тепловую карту» в виде показателей от 0.00 (не совпадают) до 1.00 (точно совпадают).
Повторяю метод, по которому тренировали CLIP
То есть главная и прорывная особенность этой системы была не в том, чтобы точно идентифицировать и запоминать пару текст-изображение, а учиться находить пару среди других, которую с наибольшей вероятностью можно было считать правильным. Это, обратно говоря, развило гибкость мышления CLIP.
CLIP как ключики к двери подбирает наиболее подходящий набор векторов-изображений под заданные векторы из текста.
☝🏼 Нейросеть CLIP тренировали в течение 30 дней на 592-ух графических ускорителях от NVIDIA V100.
Три попытки упростить этапы генерации: только с текстовым описанием, без prior и с prior
Но конечный результат при попытке создать изображение с помощью такого метода был откровенно слабым. Сыграло ключевое отличие: без умения точно определять, что должно быть в кадре, подобранные векторы слабо годятся для реалистичной детализации, композиции и реализма в целом.
Процесс генерации черновика из векторного текста в OpenAI назвали Prior.
В следующем этапе диффузная модель, взятая из нейросети под названием GLIDE, уже отрисовывает необходимое конечное изображение.
3. Декодирование через диффузную модель
https://www.iphones.ru/wp-content/uploads/2022/08/Dif-1.mp4
Конечное изображение создаётся с помощью декодера. В качестве него используется нейросеть GLIDE, тоже создана OpenAI.
GLIDE работает на базе диффузной модели.
Нейросети делятся на несколько видов, включая и . Контрастная обучается на разнице между нескольким исходными данными (как CLIP с её парами), а вторая учится создавать новое из того, что ей дали. Большое исследование на эту тему здесь.
Диффузная модель является . Она разрушает тестовые данные через постепенное примешивание шума Гаусса (равномерное распределение рандомных точек по всей картинке), а потом учится восстанавливать данные, обращая процесс разрушения.
https://www.iphones.ru/wp-content/uploads/2022/08/Dif-2.mp4
В GLIDE диффузная модель получает текстовый запрос и на его основе «проявляет» итоговое изображение.
Отличие её работы внутри DALL•E 2 в том, что используются не только слова в формате text embedding, но и image embedding – тот самый векторный «набросок» из шага 2. В то же время будет менее продуктивно брать только код будущего изображения в виде image embedding, потому что изображения получались не такими реалистичными из-за
Получается, что алгоритмы из CLIP и из GLIDE дополняют недостатки друг друга: CLIP лучше определяет, какие именно объекты должны быть, а GLIDE компонует их в фотореалистичную композицию с учётом положения света, перехода цвета и привычного нашему глазу отношения предметов друг к другу.
Разница между DALL•E 2 (unCLIP) и GLIDE. Благодаря использованию векторов image embedding из CLIP изображение получается таким же реалистичным, но более богатым на детали
Так что по своей сути GLIDE это тоже нейросеть для создания изображений, но она работает за счёт прямого перевода текста в картинку, без использования латентного пространства из пункта 2.
В диффузный декодер загружается векторное описание будущего изображения «image embedding», туда же добавляется текстовый запрос «text embedding».
Декодер натренирован на 250 миллионах изображений – из входных данных энкодера убрали всё, что было связано с CLIP, посколько в итоге оно только добавляло шум выходным изображениям (данные OpenAI, раздел C).
4. Апсемпл
https://www.iphones.ru/wp-content/uploads/2022/08/diffusion-upscale.mp4
Декодер из шага 3 создаёт изображение размером всего лишь 64 на 64 пикселя. Оно станет тем самым реалистичным результатом, который выдаёт DALL·E 2. Чтобы сделать его детализированным, на последнем этапе картинка проходит два подхода увеличения разрешения.
Делается это тем же диффузным методом, но другими моделями. Сначала генерируется формат 256 х 256 пикселей, затем 1024 × 1024 пикселей. Мало взять пиксель и разделить его сначала на четыре, а потом каждый из них снова на четыре – картинка получится фактически больше, но останется такой же нечёткой.
Чтобы улучшить стойкость нейросети (её умение корректно дополнять детали), во время обучения тренировочные данные были слегка «испорчены».
На первом этапе увеличения изображения используется нейросеть, обученная на стандартном диффузном методе с шумом по Гауссу, а для второго этапа применяют сеть, которую тренировали на фотографиях с артефактами от сжатия JPEG, с цветным зерном от камер, интерполяциями (смазывание пикселей) и размытием.
Такие особенности научили нейросеть на последнем этапе лучше симулировать реалистичность. Потому что дьявол всегда в деталях: для нас конечные результат DALL·E 2 выглядит приятным как раз благодаря наличию всех этих мелких артефактов, рисующих иногда безупречную композицию. Безупречную, потому что знакомую: не прилизанную до конца, с неровностями, свечением, шероховатостями и всем остальным.
Лимиты, слабости и проблемы DALL·E 2
Глаза страдают больше всего
Как бы идеально ни выглядели изображения, люди просто не публикуют неудачные кадры. Данная генеративная модель не всегда справляется с запросами, часто ошибается в том, что от неё просят – хотя всё ещё генерирует предметы в реалистичном освещении и правдоподобном отношении друг к другу.
Ошибки происходят из-за особенностей его составной части CLIP, которая занимается векторным соотношением слов в латентном пространстве.
Это приводит к тому, что DALL·E 2 путается, какому объекту нужно присвоить описанную характеристику.
Из-за компонента CLIP внутри себя, DALL·E 2 проигрывает более простой GLIDE в понимании, где должны быть предметы относительно друг друга
Например, в запросе «Красный куб лежит на синем кубе» он не всегда понимает, какой куб должен быть красным, а какой синим.
Нейросеть не умеет писать связный текст. На просьбу показать знак с надписью «Deep Learning» он выдаёт вот такое:
А на запрос «Два фермера говорят об овощах с субтитрами» получается вот что:
И это несмотря на то, что CLIP умеет точно определять текст в изображении. Но понимать и создавать – вещи разные. Вероятно, дело в диффузной модели, которую не обучали отображать слова правильно.
Но на эту тему есть интересное наблюдение. Внимательные пользователи заметили системность и воспроизводимость ерунды, которую пишет DALL·E 2. В примере с фермерами вверху есть как бы подпись из непонятных слов на английском. Если сделать запрос с «vicootes» (сверху), то нейросеть выдаст что-то непонятное в деталях, но однозначно похожее на овощи издалека. А если сделать запрос с фразой «Apoploe vesrreaitais» (в пузыре диалога), то нейросеть выдаст птиц. В итоге получается, что два фермера действительно говорили об овощах, которым, вероятно, вредят птицы.
Полноценным языком назвать это нельзя и, уж тем более, мы не можем обозначить это как зачатки сознания. Нейросеть просто запомнила, что в латентном пространстве этот набор символов-векторов связан с определёнными предметами. Как ребёнок, который услышал исковерканное слово от другого ребёнка и теперь называет им только часть связанных с ним вещей. Именно часть, поскольку нейросеть всё ещё легко ошибается, и систематичность совпадения таких странных слов с их изображениями происходит далеко не всегда.
DALL·E 2 и не умеет добавлять реалистичную детализацию. Например, в изображении Таймс-сквер на билбордах ничего непонятно. Это легко объяснимо: диффузная модель создаёт конечное изображение разрешением всего 64 х 64 пикселя.
Там уже вложен весь смысл относительно содержания благодаря черновой схеме, сделанной на первом этапе нейросетью CLIP. Далее, при повышении до разрешения 1028 х 1028 используются алгоритмы, добавляющие детали, но уже не меняющие смысл изображения. Они понимают, что билборд светится, но не понимают, за счёт какого содержания.
Большой задачей стала фильтрация контента.
Модель тренировалась на изображениях в интернете, где большинство изображений по разной теме отображают сцены предвзято. Например, запрос (flight attendant) это всегда женщины, а (builder) это всегда мужчина, (wedding) показывает обмен кольцами на людях только с белой кожей, а (restaurant) отображает европейские заведения.

Поэтому разработчики убрали материалы для взрослых, агрессивные и политические изображения и запретили системе обрабатывать описания, не соотвествующие моральным и этическим нормам.
Выдача по запросу «протест» до фильтрации
Выдача по запросу «протест» после фильтрации тренировочных данных
Самым жёстким вопросом извне стали данные, использованные для тренировки, и кому принадлежат авторские права.
OpenAI открыла доступ к DALL·E 2 миллиону людей из списка ожидания. В первый месяц доступно 50 бесплатных запросов, далее по 15 в месяц. За следующие 115 запросов, которые выдадут 460 изображений, нужно заплатить 15 долларов.
С точки зрения шаг бизнеса выглядит логичным – инженеры создали произведение искусства в области ИИ.
Но компания была основана для некоммерческого развития самообучающихся алгоритмов, чтобы не было конфликта интересов корпораций, политиков и авторских прав. Относительно последнего поднимается вопрос из-за решения монетизировать ИИ.
OpenAI не раскрывает, на каких конкретно данных была обучена нейросеть, изображения каких авторов ей «скормили», чтобы DALL-E 2 на их основе «вырисовывала» собственную интерпретацию. И многих художников это как минимум раздражает. Буквально пару дней назад на WIRED вышел материал с критикой профессионалов, где громкие имена вроде Арджея Палмера (концепты в ) и Саймона Сталенхага раздражённо заявляют, что «ИИ подобного рода без какого-либо согласия забирает опыт работы художников длиной в жизнь и использует его как главный ингредиент в продукте, с помощью которого владельцы суперяхт продолжают напихивать свои кошельки пачками денег» (цитата Сталенхага).
Большое поле, которое изменит наши жизни
Мало кто заметил, но машинное обучение мелкими шажками наполняет искусственный интеллект жизнью. Нейросети больше не делают глазастых психоделических картин, на которые тошно смотреть. За три крупные итерации OpenAI создала разлом, который напугал художников, фотографов и иллюстраторов сразу, потому что отрисовка освещение и попадание в запрос бывают неожиданно точными. А ведь – у нейросети полно сильных конкурентов вроде Midjourney, Deep AI и Imagen AI.
Пока DALL·E 2 находится в полузакрытом доступе, бесплатно и без регистрации вы можете попробовать упрощённую версию под названием DALL·E mini.
Но уже сейчас понятно, что корпорации с хорошим аппетитом начнут интегрировать некоторые алгоритмы этих генеративных моделей в свои устройства. Не зря та же Apple каждый год с большим трепетом рассказывает о том, как мощно в очередной раз улучшила нейронный процессор смартфона. А та же Google буквально на днях запустила алгоритм, убирающий мощный цветной шум с ночных фотографий.
Пока же главное, что люди довольны. Один из авторов так и написала: «этот движок позволил выразить мне те эмоции, которые десять лет психотерпевтов вытащить не смогли.»
В тему:
▻ Google представила нейросеть Imagen. Она создаёт самые безумные фото из любого текста
▻ Нейросеть DALL-E 2 в реальном времени превращает любой текст в картинку. Результат нереальный
▻ Мэрилин Монро стала бабушкой 😱 Нейросеть состарила 20 знаменитостей, которые умерли молодыми
▻ Нейросеть превратила героев Простоквашино, Бременских музыкантов и не только в реалистичные фото людей
▻ Для чего в процессорах Apple нужны нейроядра Neural Engine. Третья сила магии iPhone
Источник: