Fundamentos de generación de imágenes con texto

1

¿Qué es text-to-Image en inteligencia artificial?

2

Cómo funciona text-to-Image: difussion

3

Exponentes de IA generativa: DALL·E 2, Midjourney y Stable Difussion

DALL·E 2

4

Generación de imágenes con DALL·E 2

5

Restricciones y limitantes de DALL·E 2

6

Prompt tuning: luces, detalles, sombras y perspectivas

7

Prompt tuning en DALL·E 2: práctica

8

Prompt tuning: estilos y artistas

9

Prompt tuning en DALL·E 2: práctica de estilos y artistas

10

Uso de API de DALL·E 2 con Python

Midjourney

11

Generación de imágenes con Midjourney

12

Prompt tuning con Midjourney

13

Prompt tuning con Midjourney: práctica

14

Image-to-Image y Blend con Midjourney

Stable Diffusion

15

Stable Diffusion con Google Colab y DreamStudio

16

Instalación de AUTOMATIC 1111

17

AUTOMATIC 1111: interfaz web de Stable Diffusion

18

Prompt tuning con Stable Diffusion

19

Prompt tuning con Stable Diffusion: práctica

Inpainting y outpainting

20

DALL·E 2: Inpainting

21

Stable Diffusion: Inpainting

22

DALL·E 2: Outpainting

23

Instalación de PaintHua

24

Stable Diffusion: Outpainting con PaintHua

Stable Diffusion features

25

Upscale: escalado de imágenes

26

Image-to-Image

27

Depth-to-Image

28

¿Cómo funciona DreamBooth?

29

DreamBooth: fine-tuning

30

Merge models: combinar modelos de difussion

Implicaciones éticas y económicas de imágenes con inteligencia artificial

31

Sesgos y bias en modelos de generación de imágenes

32

¿Cómo afecta la generación de imágenes con IA a otras profesiones?

33

Impacto de arte y diseño con IA: entrevista con Daniel Torres Buriel

34

Perspectiva de artistas y diseñadoras: entrevista con Juan Dávila

35

Perspectiva de artistas y diseñadoras: entrevista con Amelia Amórtegui

Conclusión

36

¿Qué nos deparará el futuro de la IA generativa?

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Aprende todo un fin de semana sin pagar una suscripción 🔥

Aprende todo un fin de semana sin pagar una suscripción 🔥

Regístrate

Comienza en:

5D
12H
8M
19S

DALL·E 2: Inpainting

20/36
Recursos

Aportes 8

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Hola [email protected] 😄!

Me encanta que saque varios resultados en mi caso algunas jirafas tienen gorro, una es mas pequeña que las otras y asi encontramos la variabilidad en las imagenes

Mantienen la sombra, mantienen la luz, mantienen las paticas jajaj

Para usarlo en el Google Colab de la clase pasada
solo pongan una segunda imagen y borren la zona donde quieren el edit (quedara transparente por ser png)
Paso el código:

response = openai.Image.create_edit(
  image=open("ejemplo.png", "rb"),
  mask=open("mask.png", "rb"),
  prompt="aquí su prompt",
  n=1,
  size="512x512"
)
image_url = response['data'][0]['url']

response_url = requests.get(image_url)
img_edit = Image.open(BytesIO(response_url.content))
img_edit.save('ejemplo_salida.png')
img_edit

Mi ejercicio de inpainting:

Les comparto mi ejemplo primero hice uno con un cersito pero no quedo bien


saint seiya figthing againts hades, masami kurumada style
goku figthing againts hades, masami kurumada style

Hola a todos, este es el resultado, que gracioso