Fundamentos de generación de imágenes con texto

1

¿Qué es text-to-Image en inteligencia artificial?

2

Cómo funciona text-to-Image: difussion

3

Exponentes de IA generativa: DALL·E 2, Midjourney y Stable Difussion

DALL·E 2

4

Generación de imágenes con DALL·E 2

5

Restricciones y limitantes de DALL·E 2

6

Prompt tuning: luces, detalles, sombras y perspectivas

7

Prompt tuning en DALL·E 2: práctica

8

Prompt tuning: estilos y artistas

9

Prompt tuning en DALL·E 2: práctica de estilos y artistas

10

Uso de API de DALL·E 2 con Python

Midjourney

11

Generación de imágenes con Midjourney

12

Prompt tuning con Midjourney

13

Prompt tuning con Midjourney: práctica

14

Image-to-Image y Blend con Midjourney

Stable Diffusion

15

Stable Diffusion con Google Colab y DreamStudio

16

Instalación de AUTOMATIC 1111

17

AUTOMATIC 1111: interfaz web de Stable Diffusion

18

Prompt tuning con Stable Diffusion

19

Prompt tuning con Stable Diffusion: práctica

Inpainting y outpainting

20

DALL·E 2: Inpainting

21

Stable Diffusion: Inpainting

22

DALL·E 2: Outpainting

23

Instalación de PaintHua

24

Stable Diffusion: Outpainting con PaintHua

Stable Diffusion features

25

Upscale: escalado de imágenes

26

Image-to-Image

27

Depth-to-Image

28

¿Cómo funciona DreamBooth?

29

DreamBooth: fine-tuning

30

Merge models: combinar modelos de difussion

Implicaciones éticas y económicas de imágenes con inteligencia artificial

31

Sesgos y bias en modelos de generación de imágenes

32

¿Cómo afecta la generación de imágenes con IA a otras profesiones?

33

Impacto de arte y diseño con IA: entrevista con Daniel Torres Buriel

34

Perspectiva de artistas y diseñadoras: entrevista con Juan Dávila

35

Perspectiva de artistas y diseñadoras: entrevista con Amelia Amórtegui

Conclusión

36

¿Qué nos deparará el futuro de la IA generativa?

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Aprende todo un fin de semana sin pagar una suscripción 🔥

Aprende todo un fin de semana sin pagar una suscripción 🔥

Regístrate

Comienza en:

3D
3H
8M
27S

Stable Diffusion: Outpainting con PaintHua

24/36
Recursos

Aportes 4

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Hola [email protected] 😃!

Fue bastante retadora la clase realize muchos intentos para que la imagen se acomodara lo mejor posible.

  • Imagen tomada de internet

  • Imagen Stable Diffusion: Outpainting con PaintHua

para los que no tienen tarjeta Nvidia o AMD… pongan esta instrucción en el archivo webui-user.bat

set COMMANDLINE_ARGS=–precision full --no-half --skip-torch-cuda-test --api --cors-allow-origins=https://www.painthua.com

y les va a funcionar

me demore 2 horas 52 minutos haciendo esto :S

Buen día,

Acá está la obra original: “El Ávila desde San Bernardino”, es una pintura de Manuel Cabré.

Y acá está el resultado del outpainting pasándola a un formato cuadrado, creciendo hacia arriba y hacia abajo:

Algunos detalles importantes con respecto a la configuración:

  • Se debe descargar el modelo sd-v1-5-inpainting.ckpt, guardar en la carpeta \models\Stable-diffusion de su instalación de Automatic1111, y seleccionarlo para usarlo en el outpainting.

  • En Automatic1111, Settings, Stable Diffusion, la opción “Apply color correction to img2img results to match original colors.” debe estar desmarcada y la opción “Inpainting conditioning mask strength” debe ser igual a 1.

  • En Automatic1111, Settings, User Interface, Quicksettings list se debe agregar a la lista la siguiente opción: “inpainting_mask_weight”.

Recuerden hacer clic en el botón “Apply Settings” para que se guarden los cambios y chequear siempre la consola para verificar que no hayan errores de comunicación o de ejecución.