Fundamentos de generación de imágenes con texto

1

¿Qué es text-to-Image en inteligencia artificial?

2

Atención: Estamos actualizando este curso

3

¿Cómo funciona text-to-Image: difussion?

4

Exponentes de IA generativa: DALL·E, Midjourney y Stable Difussion

DALL·E 2

5

Generación de imágenes con DALL·E

6

Atención: Estamos actualizando este curso

7

Restricciones y limitantes de DALL·E

8

Prompt tuning: luces, detalles, sombras y perspectivas

9

Prompt tuning en DALL·E: práctica

10

Prompt tuning: estilos y artistas

11

Prompt tuning en DALL·E: práctica de estilos y artistas

12

Uso de API de DALL·E con Python

Midjourney

13

Atención: Estamos actualizando este curso

14

Generación de imágenes con Midjourney

15

Prompt tuning con Midjourney

16

Prompt tuning con Midjourney: práctica

17

Image-to-Image y Blend con Midjourney

Stable Diffusion

18

Stable Diffusion con Google Colab y DreamStudio

19

Atención: Estamos actualizando este curso

20

Instalación de AUTOMATIC 1111

21

AUTOMATIC 1111: interfaz web de Stable Diffusion

22

Prompt tuning con Stable Diffusion

23

Prompt tuning con Stable Diffusion: práctica

24

Qué es Control Net de Stable Difussion y cómo utilizarlo.

Inpainting y outpainting

25

Atención: Estamos actualizando este curso

26

DALL·E: Inpainting

27

Stable Diffusion: Inpainting

28

Inpainting en Midjourney: Vary (Region)

29

DALL·E : Outpainting

30

Zoom Out: La nueva herramienta de Midjourney

31

Instalación de PaintHua

32

Stable Diffusion: Outpainting con PaintHua

Stable Diffusion features

33

Atención: Estamos actualizando este curso

34

Upscale: escalado de imágenes

35

Image-to-Image

36

Depth-to-Image

37

¿Cómo funciona DreamBooth?

38

DreamBooth: fine-tuning

39

Merge models: combinar modelos de difussion

Implicaciones éticas y económicas de imágenes con inteligencia artificial

40

Atención: Estamos actualizando este curso

41

Sesgos y bias en modelos de generación de imágenes

42

¿Cómo afecta la generación de imágenes con IA a otras profesiones?

43

Impacto de arte y diseño con IA: entrevista con Daniel Torres Burriel

44

Perspectiva de artistas y diseñadoras: entrevista con Juan Dávila

45

Perspectiva de artistas y diseñadoras: entrevista con Amelia Amórtegui

Conclusión

46

¿Qué nos deparará el futuro de la IA generativa?

47

Comparte tu proyecto y certifícate

48

¡Dale feedback a los proyectos de la comunidad!

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

¿Qué nos deparará el futuro de la IA generativa?

46/48
Recursos

Nombre del curso: Curso de Generación de Imágenes con IA: Dall-E, Midjourney y Stable Diffusion

Dean: Sebastián Delmont

School Owner: Carlos Alarcón

Profesor: Carlos Alarcón

Dirección: Miguel Torres

Co-dirección: Fernanda Jófili

Entrevistas: Daniel Torres Buriel, Amelia Amórtegui, Juan Dávila.

Asesoría: Daniel Torres Buriel, Diana Delfín, Juan Dávila.

Producción OPS: Lizeth Cáceres y Rocío Martínez

Creación audiovisual: Camilo Lamilla Tamayo

Edición de video: Daniel Gutiérrez

Postproducción de audio: Karen White

Diseño gráfico: Amelia Amórtegui

Coordinación General: Andrés Arizmendy, Daniel Gutiérrez, Carol Baquero, Carlos Céspedes y Sura Cedeño

Revisión: Axel Yaguana y Rubén Cuello

Aportes 14

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Hola Chic@s 😃!

¿Qué nos deparará el futuro de la IA generativa?

  • Video Juegos

  • Figma

  • Marketing

  • Text to video (Meta AI) Bastante interesante

Yo utilizo ChatGPT para optimizar mi perfil de LinkedIn

Gracias profe!! Un capo 👏🏻👏🏻👌🏻

Agradecido a morir con este curso ♥

test annswerrs **Resumen**1. ¿A qué tipo de modelos de machine learning pertenece la generación de imágenes con base a un texto? Text-to-Image2. ¿Cuál es el modelo de inteligencia artificial que relaciona conceptos visuales con NLP? CLIP 3\. ¿Cuál es el modelo de Text-to-Image que se puede usar de manera libre (Open Source) y sin pagar por su uso? Stable Diffusion4. Por defecto, ¿cuántas imágenes genera DALL-E en su versión web? 45\. ¿Es posible desactivar los filtros de restricciones de DALL-E 2? No, para evitar su uso indebido e incorrecto. 6\. En un prompt de DALL-E 2 ¿con qué se debe empezar? What: qué quiero generar. 7.¿Qué palabra debería escribir si quiero especificar un estilo de pintura específico?Style8. ¿Para qué serviría la siguiente línea de código en Python? `response = openai.Image.create_variation(image=open("imagen_dog.png", "rb"), n=2, size="1024x1024"`) Genera dos variantes basadas en la imagen`imagen_dog.png` con dimensiones de 1024x1024. 9\. ¿Qué librería se debe instalar para utilizar DALL-E 2 con Python? `openai` 10\. ¿Cuál es el flag que debe usarse para prompts negativos en Midjourney? `--no` 11\. ¿Cuál es la librería que se debe instalar para poder usar Stable Diffusion con Python? `diffusers` 12\. ¿Cuáles son las características de AUTOMATIC 1111? Interfaz web de stable diffusion, funciona en cualquier sistema operativo de escritorio. 13\. Para dar mayor importancia o atención a una parte específica del prompt en Stable Diffusion, ¿qué se debe utilizar? ()14. ¿Qué representa el guidance scale en Stable Diffusion? El nivel de importancia del prompt al generar la imagen. 15\. ¿Cuál es la técnica para editar una imagen de acuerdo a una máscara dibujada sobre dicha imagen? Inpainting 16\. ¿Cuál es la técnica para editar y expandir una imagen desplazando un recuadro sobre dicha imagen? Outpainting 17\. Es posible aumentar la dimensión y resolución de una imagen con Stable Diffusion. ¿Cómo se conoce este proceso? Upscale 18\. ¿En qué consiste Image-to-Image de Stable Diffusion? Crear una imagen con base a una imagen de referencia y un prompt. 19\. ¿Para qué se creó DreamBooth? Hacer fine-tuning a modelos de difusión. 20\. ¿Qué es indispensable para hacer fine-tuning a modelos de difusión? GPU21. ¿Es posible hacer un merge de modelos como DALLE-2 y un ckpt de Stable Diffusion? No, porque son modelos que están disponibles al público de formas muy diferentes. 22\. ¿El sesgo en IA se puede dar en cuál de los siguientes niveles? Todas las opciones 23\. ¿Se puede usar el mismo token de GPT-3 para la API de Python en DALLE-2? Sí, al ser ambos productos de OpenAI es posible. Ver menos

Excelente iniciativa con este curso, gracias profe Carlos.

Hola Platzinautas! 😄
les comparto un pequeño articulo de uno de los lanzamientos de hace unos meses sobre AI y las nuevas aplicaciones sobre la lectura visual del cerebro de un Raton a Video TODO con AI

https://computerhoy.com/ciencia/lectura-mente-inteligencia-artificial-ondas-cerebrales-vision-raton-1240602
SImplemente impresionante y ya son meses de ese experimento
que pasara en lo que queda del año jesusito 😃

Gracias profe Carlos ! espero podamos ver un curso de NeRF y veo mucho potencial para nuevos modelos economicos en web3. Thanks!..

Usemos la IA a nuestro favor, que no nos desplace sino que más bien nos ayude a potenciar exponencialmente nuestras capacidades 🚀🔥😎🥇

Excelente curso, definitivamente tendré que regresar a el a consultar muchos elementos, definitivamente hay cosas que necesitamos profundizar. Gracias

Las entrevistas le dieron un super plus a este curso! De verdad me siento agradecido y afortunado. Gracias

Que genial! escuchar a tu maestro decir que se divirtió y que le apasiona este campo del conocimiento. Gracias por toda esta aventura.

Los siguientes pasos de la IA generativa de imágenes pueden ser aplicados en diversas áreas, incluyendo: 1\. Videojuegos. 2\. Diseño gráfico y experiencia de usuario (UX). 3\. Marketing. 4\. Generación de videos a partir de texto (experimental).

Excelente contenido del curso, documentación y las entrevistas.