
Аноним
Маска Организаторов
Организатор
- Сообщения
- Монеты
- +89.5
- Оплачено
- 5
- Купоны
- 0
- Кешбэк
- 0
- Баллы
- 0
- @Skladchiki
- #1
Складчина: Нейросети для художников. Тариф Самостоятельное обучение (Алексей Крестьянинов)
- Ссылка на картинку
-
Нейросети на курсе:
Stable Diffusion – это нейросеть от группы студии Stability.ai с открытым исходным кодом, которая позволяет генерировать изображения на основе текстового запроса, а также дорисовывать наброски и редактировать исходные картинки.
Генерация изображений
Stable Diffusion может качественно генерировать изображения на основе текстового запроса. Она работает не с пикселями, а со сжатыми версиями изображений. Это экономит время и мощности компьютера.
Различные стили
Stable Diffusion знает стили всех художников — от времен ренессанса до современных авторов концепт-артов в видеоиграх. Можно генерировать картинку одновременно в стиле Ван Гога и NFT-артиста Beeple.
Открытый исходный код
Stable Diffusion вышла в публичный доступ в августе 2022 года. Открытый исходный код позволяет установить Stable Diffusion на свой компьютер и использовать собственные вычислительные мощности.
Использование в различных приложениях
Благодаря открытому исходному коду модель можно использовать в разных приложениях, где требуется работать с изображениями. Так, в веб-редакторе изображений Canva и программе для 3D-моделирования Blender уже работают функции генерации картинок по текстовому описанию.
Кроме SD на курсе мы изучим Midjourney – нейросеть, которая генерирует изображения по описанию и объединяет несколько картинок в одну.
Также вы научитесь создавать описания персонажей с помощью текстовых нейросетей ChatGPT и Bing
Навыки, которые вы получите на курсе:
Stable Diffusion – это нейросеть от группы студии Stability.ai с открытым исходным кодом, которая позволяет генерировать изображения на основе текстового запроса, а также дорисовывать наброски и редактировать исходные картинки.
Генерация изображений
Stable Diffusion может качественно генерировать изображения на основе текстового запроса. Она работает не с пикселями, а со сжатыми версиями изображений. Это экономит время и мощности компьютера.
Различные стили
Stable Diffusion знает стили всех художников — от времен ренессанса до современных авторов концепт-артов в видеоиграх. Можно генерировать картинку одновременно в стиле Ван Гога и NFT-артиста Beeple.
Открытый исходный код
Stable Diffusion вышла в публичный доступ в августе 2022 года. Открытый исходный код позволяет установить Stable Diffusion на свой компьютер и использовать собственные вычислительные мощности.
Использование в различных приложениях
Благодаря открытому исходному коду модель можно использовать в разных приложениях, где требуется работать с изображениями. Так, в веб-редакторе изображений Canva и программе для 3D-моделирования Blender уже работают функции генерации картинок по текстовому описанию.
Кроме SD на курсе мы изучим Midjourney – нейросеть, которая генерирует изображения по описанию и объединяет несколько картинок в одну.
Также вы научитесь создавать описания персонажей с помощью текстовых нейросетей ChatGPT и Bing
Навыки, которые вы получите на курсе:
- Научитесь основам создания запроса.
- Добавите сгенерированный в нейросети концепт персонажа.
- Научитесь применять в работе ряд плагинов
- Узнаете об особенностях и нюансах генерации.
- Сможете производить генерации на основе собственных скетчей/концептов, а также модифицировать уже существующие работы.
- Полностью освоите пайплайн по созданию концепта персонажа с использованием нейросетей.
- Научитесь находить более оптимальные способы генерации изображений, увеличивать разрешение любого вида картинок с увеличением их детализации.
- Установка и настройка UI пространства
В начале обучения мы установим Automatic1111, освоим базовый интерфейс и режим генерации изображений через текст. А также подключим вспомогательные плагины. - Вкладки Img2img, Inpaint, Extras, и SD Upscale
В этом блоке мы научимся пользоваться режимами по генерации на основе изображений, модификации отдельных участков, а также по увеличению разрешения. - Модели, embeddings и Loras
Здесь мы рассмотрим виды и особенности моделей разных типов. Научимся эффективно их использовать. - Основы генерации
В середине обучения мы углубимся в принципы работы с нейросетью, узнаем ее скрытые возможности. - Обучение модели Lora
В этом блоке мы научимся создавать собственную модель Lora для генерации любой стилистики и концепции. - Создание концепта для дизайна персонажа
В шестом блоке мы создадим описание персонажа посредством ChatGPT, научимся создавать концепт через текст, скетч и с помощью нейросети MidJourney. - Детализация и финализация
На финальной стадии мы освоим создание высокой детализации и разрешения через плагины: ADetailer, Tiled Diffusion и Ultimate SD Upscale. А также доделаем концепт персонажа. - Дополнительные плагины
В последнем блоке мы рассмотрим дополнительные возможности и плагины Automatic1111.
Показать больше
Зарегистрируйтесь
, чтобы посмотреть авторский контент.