Generación de imágenes con Stable Diffusion

1

Generación de imágenes con Stable Diffusion Online

2

¿Cómo funciona text-to-Image: difussion?

3

Stable Diffusion con Google Colab y DreamStudio

Quiz: Generación de imágenes con Stable Diffusion

Generación de imágenes desde AUTOMATIC 11111

4

Instalación de AUTOMATIC 1111

5

AUTOMATIC 1111: interfaz web de Stable Diffusion

Quiz: Generación de imágenes desde AUTOMATIC 11111

Mejora de prompts para Stable Diffusion

6

Prompt tuning con Stable Diffusion

7

Prompt tuning con Stable Diffusion: práctica

Quiz: Mejora de prompts para Stable Diffusion

Inpainting y outpainting con Stable Diffusion

8

Stable Diffusion: Inpainting

9

Instalación de PaintHua

10

Stable Diffusion: Outpainting con PaintHua

Quiz: Inpainting y outpainting con Stable Diffusion

Funciones avanzadas de Stable Diffusion

11

Upscale: escalado de imágenes

12

Image-to-Image

13

Depth-to-Image

14

Merge models: combinar modelos de difussion

15

Qué es Control Net de Stable Difussion y cómo utilizarlo.

Quiz: Funciones avanzadas de Stable Diffusion

DreamBooth: fine tuning de modelos de difusión

16

¿Cómo funciona DreamBooth?

17

DreamBooth: fine-tuning

Quiz: DreamBooth: fine tuning de modelos de difusión

Implicaciones éticas y económicas de imágenes con inteligencia artificial

18

Sesgos y bias en modelos de generación de imágenes

19

¿Cómo afecta la generación de imágenes con IA a otras profesiones?

20

Impacto de arte y diseño con IA: entrevista con Daniel Torres Burriel

21

Perspectiva de artistas y diseñadoras: entrevista con Amelia Amórtegui

Quiz: Implicaciones éticas y económicas de imágenes con inteligencia artificial

Conclusión

22

¿Qué esperar de Stable Diffusion y el open source en el futuro?

¿Cómo funciona text-to-Image: difussion?

2/23
Recursos
Transcripción

Aportes 89

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Y listo, ya sabemos como funcionan los modelos de generacion de imagenes

Hola Chicos 😄!

Stable Diffusion:

1. Text encoder(Entendimiento de texto)

  • CLIP: (Contrastive Language-Image Pre-Training): Es una tecnologia o arquitectura desarrollada por el equipo de Open AI capaz de relacionar textos con imagenes.

2. Image generator

  • Image formation creator: Generador de la información de la imágen

  • Image autoencoder: Quien toma el espacio vectorial y genera una imagen como resultado
    Diffuser: Generar ruido en una imagen

Mi creaciòn por medio de texto

Miren los logos que realicé:

2 - Cómo funciona text-to-Image: difussion

DALLE es libre y cualquier puede generar una imagen con solo ingresar un PROMPT = descripcion.

Nos enfocaremos en Stable diffusion, que es otra IA de text-to-image, pero con algo muy particular e interesante, ya que funciona en una espacio vectorial en su modelo de DIFFUSION → es una tecnica que agrega ruido a una imagen de alta definicion.

Estos modelos basados en DIFFUSION, funcionan con 2 perspectivas o enfoques:

  1. PROMPT → Text encoder (Entendimiento del texto)
    1. Se basa en CLIP → arquitectura desarrollada por openai, capaz de relacionar textos con imagenes, se entrena con data sets de imagenes + su descripción detallada.
  2. image generator: lo que genera la magen → toma un vector generado por CLIP
    1. image formator creator: Generador de la información de la imágen
    2. image auto encoder: Quien toma el espacio vectorial y genera una imagen como resultado
      • Diffuser: es una tecnica que agrega ruido en una imagen, el secreto es pasar una imagen con mucho ruido a una imagen de alta calidad, basicamente predice la imagen, eliminando el ruido
      • **U-net**: arquitectura que reduce la dimensionalidad, para q sea mas facil de trabajar y luego tambien puede aumentarlo.

DALL·E 2: A rancher frog playing the banjo in a swamp, straw hat, cool color scheme, misty, digital art

Luego de varios intentos, esta imagen que logré crear.

Información resumida de esta clase
#EstudiantesDePlatzi

  • Es importante que el Promt este en ingles

  • Stable Difusion funciona con 2 perspectivas, primero el entendimiento del texto y segundo, la generación de la imagen

  • CLIP es una tecnología desarrollada por Open IA, capas de relacionar texto con imágenes

  • Podemos dividir el image generator en dos: Image formation creator y image autoencoder

  • Difusion es una técnica en donde agregamos ruido a una imagen de alta definición

  • Los modelos de Difusion inician con una imagen con mucho ruido y terminan con una imagen de alta calidad

  • U-Net es una arquitectura donde buscamos reducir en el espacio dimensional algo

  • Con cada paso se reduce el ruido

  • Es buena idea tomarse el tiempo para entender como funciona esta tecnología

  • Prompt -> Clip -> Espacio vectorial -> U-Net -> Decoder -> image


Prompt: cute mini panda working behind a laptop
Midjourney

¿A qué nos referimos con Prompt?
Es una indicación o instrucción que se le da a un programa para que pueda realizar una tarea específica; en este caso, para la generación de la imagen.

Me Rindo

creo que ahorita dalle2 funciona con créditos. por lo que ya no sería tan libre :(

Si alguien no conocía el término Cadena de Markov (me incluyo) aquí una pequeña definición: Una cadena de Markov se define como una secuencia de variables aleatorias que representan los estados de un determinado sistema durante una serie de intervalos de tiempo, de modo tal que el estado del sistema en el intervalo actual depende únicamente de su estado en el intervalo inmediato anterior y no de los estados previos. Fuente

Anoche estuve buscando un curso de Stable Diffusion sin éxito, y entro a platzi y me encuentro con esto recién publicado ❤️

Dall-e ya no es gratuito, Microsoft a través de Bing ofrece el servicio todavía gratis.
https://www.bing.com/images/create

⚛️ Si quieren ver una explicación más detallada de CLIP a su vez que leen el paper, les recomiendo este video, y de paso que le den una mirada a los otros videos de ese canal, creo que son muy entendibles para los papers de ML

que lastima que ya no es gratis 😕

Se nota que Carlos Alarcón sabe bastante del tema, el detalle que veo es que muchas veces -en varios cursos que he visto con él- da por descontado que todos los demás estamos familiarizados con los términos técnicos que usa y se ahorra la explicación.

Sí, uno toma notas y luego investiga los términos, pero eso interrumpe el proceso didáctico y se pierde continuidad del aprendizaje. Algo que ojalá se tome en cuenta pronto en Platzi, porque de resto los temas son muy oportunos.

Las manos son problemáticas para las IA, no he visto alguna que lo haya resuelto 100%.

Dall-E ya no deja hacer lo que se ve en la clase requiere de creditos

En esta lección, profundizaremos en el funcionamiento de Stable Diffusion, un componente fundamental en la generación de imágenes asistida por inteligencia artificial (IA). Stable Diffusion opera como un modelo vectorial en el proceso de difusión y se compone de dos elementos esenciales:

Codificador de Texto (Comprensión del Texto)

El Codificador de Texto se fundamenta en CLIP (Preentrenamiento de Lenguaje-Imagen Contrastiva), una arquitectura desarrollada por OpenAI. Esta fase del proceso tiene como objetivo establecer relaciones entre textos e imágenes. Implica la codificación tanto del texto como de la imagen, seguido de una comparación utilizando medidas de similitud, como la similitud de coseno. Esto facilita la correlación entre las secuencias de texto y las secuencias de píxeles en las imágenes.

El dataset empleado para entrenar Stable Diffusion es conocido como LAION-5B y consta de 5 billones de imágenes, cada una acompañada de su correspondiente “caption.”

Generador de Imágenes

El Generador de Imágenes toma un vector de dimensión 77x768 derivado de CLIP y utiliza una imagen de ruido aleatorio para generar una imagen en formato RGB (rojo, verde, azul). El Generador de Imágenes se divide en dos componentes principales:

  1. Creador de la Formación de la Imagen: Este componente establece la base de la imagen a partir del vector.
  2. Autoencoder de Imágenes: Refina la imagen generada para obtener una representación visual más realista.

Para una comprensión completa del funcionamiento de Stable Diffusion, es crucial entender el papel de la Información de Imagen y el Difusor en el proceso de generación de imágenes.

Proceso de Difusión

El proceso de difusión es una técnica que involucra la adición progresiva de ruido a una imagen de alta definición. A través de una serie de etapas, el ruido se incorpora gradualmente a la imagen hasta que esta se vuelve prácticamente indistinguible. Este proceso se conoce como “Proceso de Difusión Fija.”

Proceso de Desruido Generativo

A continuación, el proceso de Desruido Generativo se encarga de recuperar la imagen de alta definición a partir del ruido. En este proceso, el modelo se entrena para determinar cuánto ruido debe eliminarse de la imagen para que esta sea perceptible y nítida.

U-Net y Reducción Dimensional

La utilización de U-Net implica la reducción de la dimensionalidad de las imágenes, lo que simplifica el procesamiento. A través de múltiples pasos de U-Net, el ruido se elimina gradualmente, resultando en una imagen más definida. Por ejemplo, podrían llevarse a cabo 50 pasos en este proceso.

Arquitectura de Difusión

La arquitectura de difusión sigue el siguiente flujo:

  • Espacio de Píxeles (Imágenes)Codificador (Espacio de Píxeles)Espacio Latente (Adición de Ruido Constante)Condicionamiento (Relación con CLIP)Denoising U-Net

Este flujo describe cómo las imágenes se procesan desde su forma original en el espacio de píxeles hasta la incorporación de ruido constante, la condición relacionada con CLIP y, finalmente, el proceso de Denoising U-Net para obtener imágenes nítidas y de alta calidad.

Stable Diffusion - Ejecución

La ejecución de la generación de imágenes a partir de un texto, como “An astronaut riding a horse,” utilizando el modelo Text-to-Image con Stable Diffusion generalmente seguiría los siguientes pasos:

  1. Input del Usuario: El usuario proporciona un texto descriptivo que describe la imagen que desea generar. En este caso, el texto es “An astronaut riding a horse.”

  2. Codificación del Texto: El texto proporcionado (“An astronaut riding a horse”) se codifica utilizando el modelo Text Encoder basado en CLIP. Esto implica la representación numérica del texto, lo que permite establecer una relación entre el texto y las imágenes.

  3. Generación de Imagen en Espacio Latente: El vector codificado del texto se utiliza como entrada para el Generador de Imágenes. El Generador de Imágenes genera una imagen inicial en un espacio latente, que es una imagen en bruto basada en la descripción textual.

  4. Proceso de Difusión: La imagen generada inicialmente se somete al proceso de difusión. En este proceso, se agrega gradualmente ruido a la imagen, lo que la hace menos nítida y más abstracta a medida que avanza el proceso.

  5. Proceso de Denoising Generativo: Luego, se aplica el proceso de Denoising Generativo para eliminar el ruido y restaurar la claridad de la imagen. Este proceso implica entrenar al modelo para eliminar el ruido añadido en el paso anterior.

  6. U-Net y Reducción Dimensional: En cada paso de U-Net, la imagen se somete a una reducción de dimensionalidad para eliminar aún más el ruido y mejorar la definición de la imagen.

  7. Resultado Final: Después de un número específico de pasos de U-Net (por ejemplo, 50 pasos), se obtiene una imagen final que representa la descripción textual proporcionada por el usuario. En este caso, sería una imagen que muestra a un astronauta montando un caballo.

  8. Entrega de la Imagen al Usuario: La imagen generada se presenta al usuario como resultado, y el usuario puede visualizarla o utilizarla según sea necesario.

    Es importante recordar que este proceso es altamente complejo y requiere de una potencia computacional significativa. Además, la calidad de la imagen generada dependerá de la precisión del modelo y del texto de entrada proporcionado por el usuario. En este ejemplo, el modelo Text-to-Image con Stable Diffusion debería ser capaz de crear una representación visual convincente de un astronauta montando un caballo basada en la descripción textual dada.

Les comparto algunas imagenes que he generado este año con la IA, espero les guste

hola a todos, si estas aprendiendo y te topaste que los creditos de DALL-E 2 cuestan 15 dolares. puedes probar como funciona la IA de BING te regala 100 creditos y tambien tiene un chatgpt

SI QUIEREN TENER DALL-E EN ESPAÑOL O OTROS IDIOMAS, POR EL MOTOR DE BUSQUEDA CHROME, EL HACE LA TRADUCCION AUTOMATICA, AJUSTAN EL IDIOMA

La cantidad de procesos internos que se desarrollan dentro de estos elementos es altamente complejo y es bueno saber. Gracias

DALL-E es de pago, pero hay opciones gratuitas como Bing, Midjourney o LeonardoAI, que es lo que yo utilizo

Messi y cr7 besandose JAJAJAJAJ

AI: Midjourney
Prompt: Photograph of Cristiano Ronaldo and Messi kissing on the beach while the sun sets behind them. Beach portrait photography style with warm and pastel tones. (Styles) References to artists like Annie Leibovitz and Peter Lindbergh.Natural sunset light that gives a soft and romantic effect. Golden light reflector that focuses on the main scene.Warm and saturated color settings to highlight the models’ skin and the background beach.Photograph taken with a Canon EOS R6 camera with Canon RF 50mm f/1.2L USM lens. Focus on the models to create a blurry effect on the background beach.

Dall-e 2 es un sistema de AI pero ya no es gratuito, ya que pide créditos para generar las imágenes. Los prompt deben estar siempre en inglés.

You’re out of credits?

Ya se acabaron los creditos gratuitos para los que se inscriban después del 6 de abril 😦

<https://openai.com/dall-e-2> no disponible en el momento, actualizar clase.

Qué lástima que Dalle ya no es gratis U_U.

Text-to-Image Diffusion (T2ID) es una técnica de generación de imágenes que utiliza un modelo de difusión para generar imágenes a partir de texto. El modelo de difusión es un modelo generativo que se basa en la idea de que las imágenes se pueden construir a partir de una serie de pasos de difusión que aplican pequeñas perturbaciones a una imagen inicial. En T2ID, estas perturbaciones se generan a partir de un texto de entrada.


Image with noise in stable difussion!! 💚

Dall-E pide créditos para generar las imágenes.

🤯 quedé así jajajaja, es increíble todo lo que hay por detrás de estos modelos, qué intimidante, abrumador pero sobre todo retador de aprender.🔥

No se dice "encodeamos" (horrible). Se dice "codificamos".

¡Qué interesante! Es sorprendente cómo la tecnología ha avanzado hasta el punto en que podemos generar imágenes a partir de una simple descripción. La técnica de text-to-image basada en difusión es fascinante y me encanta cómo funciona con un enfoque de dos perspectivas: texto e imagen. A través de la combinación de CLIP y el generador de imagen, los modelos basados en difusión pueden crear imágenes cada vez más realistas mediante la eliminación del ruido en una imagen. Además, la lectura recomendada y los enlaces proporcionados son muy útiles para entender mejor esta técnica. ¡Increíble lo que se puede hacer con la inteligencia artificial!

Que increible la cantidad de informacion que tomaron para entrenar a esta inteligencia.

Si estás en Venezuela, debes usar VPN

**🚀 ¿Cómo funciona Stable Diffusion?** 1. **Interfaz y prompt**: Se puede usar una herramienta como DALL·E 2 (desarrollada por OpenAI) para generar imágenes a partir de descripciones en inglés 📝. Por ejemplo, puedes pedir que se genere un "gatito esponjoso estilo anime", y el modelo lo crea utilizando inteligencia artificial. 2. **Proceso interno**: * **Text Encoder (Clip)**: El modelo toma el texto y lo convierte en un espacio vectorial, es decir, una representación matemática. También hace lo mismo con imágenes, comparando las similitudes entre ellas. Así, el modelo puede entender cómo se relacionan palabras como "perro" con características visuales de un perro 🐕. * **Imagen Generator (Imaginerator)**: Después, se genera una imagen a partir de ese texto usando un vector y agregando ruido a la imagen hasta convertirla en puro ruido. Luego, mediante un proceso inverso, el modelo elimina el ruido para crear la imagen final 🎨. 3. **Difusión Inversa**: Es el corazón de este proceso. Se comienza con una imagen llena de ruido y, paso a paso, se elimina ese ruido hasta obtener una imagen nítida 🌫➡️🖼. 4. **Arquitectura UNet**: Esta tecnología permite reducir la complejidad de la imagen a un espacio más manejable y luego aumentar la resolución para reconstruir la imagen final 🌌. 5. **Proceso iterativo**: El modelo repite el proceso de eliminación de ruido varias veces hasta lograr una imagen clara y bien definida 🔄. En resumen, Stable Diffusion convierte texto en imágenes mediante una combinación de comprensión de texto y eliminación de ruido, lo que da lugar a imágenes detalladas y personalizadas a partir de descripciones simples 🤖✨.
La plataforma me dice que publicó el curso el 09 de enero del 2024 pero los comentarios en el panel de discusión dicen "Hace 2 años"
Se Bloquea el video
![]()
no me deja usar dall-e, pero Microsoft d![]()![]()esigner tambien da lo suyo ![]()![](file:///C:/Users/bits0035/OneDrive%20-%20Bray%20International,%20Inc/Desktop/Deya/0%20Deya/1%20General/Certificaciones/2024/Platzi_ai_3/Designer%20\(4\).jpeg)![]()
![](https://static.platzi.com/media/user_upload/image%20%281%29-cc3438e9-b489-446a-8d05-47e008cf3bd4.jpg) [**cinematic underwater-photo shot a girl,**](https://prompthero.com/search?q=cinematic+underwater-photo+shot+a+girl\&source=935dc665af7)**** [**water-roses above water,**](https://prompthero.com/search?q=water-roses+above+water\&source=935dc665af7)**** [**close up of a lips,**](https://prompthero.com/search?q=close+up+of+a+lips\&source=935dc665af7)**** [**editorial qualitywater light fracturing and water reflections,**](https://prompthero.com/search?q=editorial+qualitywater+light+fracturing+and+water+reflections\&source=935dc665af7)**** [**depth of field,**](https://prompthero.com/search?q=depth+of+field\&source=935dc665af7)**** [**blue color,**](https://prompthero.com/search?q=blue+color\&source=935dc665af7)**** [**blue-core,**](https://prompthero.com/search?q=blue-core\&source=935dc665af7)**** [**kodak portra 800,**](https://prompthero.com/search?q=kodak+portra+800\&source=935dc665af7)**** [**105 mm f1.**](https://prompthero.com/search?q=105+mm+f1\&source=935dc665af7)**** [**8 --ar 2:1 --q 2 --v 5**](https://prompthero.com/search?q=8+--ar+2%3A1+--q+2+--v+5\&source=935dc665af7)
![]()Adorable white male cat with spots like angels winngs in color gey and light brown, in a beautiful, enchanted Forrest, anime, digital art![](<C:\Users\thaul\OneDrive\Imágenes\Merlin Dall E animé.webp>)![](https://static.platzi.com/media/user_upload/image-0d02d61f-f8d0-4dd5-b409-5f23e0423395.jpg)
Hola, no me deja ingresar en Dall-e no me aparece la opcion de sign up
![]()![](https://static.platzi.com/media/user_upload/envision-a-majestic-wolf-front-and-center-its-fur-is-thick-and-dense-a-silvery-gray-hue-that-stan-600521083%20%281%29-058cca59-f7b4-47fe-b98a-2f59a39050a5.jpg)
Aaaaaaaa facilisimoooooo
![](https://static.platzi.com/media/user_upload/image-4ef79465-6da8-47d7-ab3a-030ae7b27380.jpg)
Me siento un poco MUY loco ahjjaja pero bueno, sigamos jajaja
He aquí un ejemplo de aplicar la Meta Ingeniería de prompts. Esta es el prompt que yo creé. *Logotipo de un robot futurista de Star Wars. Con los colores negros y rojos.* Y este es el prompt que me generó. Por supuesto, aquí tienes un prompt mejorado para generar un logotipo de un robot futurista de Star Wars con colores negros y rojos utilizando DALL-E: En español: "Genera un logotipo que represente un robot futurista en el estilo de Star Wars. El diseño debe ser principalmente de color negro y rojo, con un enfoque en la elegancia y la tecnología avanzada." In English: "Generate a logo representing a futuristic robot in the style of Star Wars. The design should primarily feature black and red colors, with an emphasis on elegance and advanced technology." Puedes utilizar este prompt con modelos generativos como DALL-E para obtener una imagen que se ajuste a tu descripción. Si necesitas más detalles o ajustes específicos, no dudes en decírmelo. Lo ejecuté en Stable Diffusion y he aquí la imagen que me generó. ![Stormtrooper](https://freddy875.github.io/FulgorSolar/Stormtrooper.png "Stormtrooper")
**Meta Ingenieria de Prompts.** La meta ignenieria de prompts tiene como objetivo fundamental permitir que la IA te indique qué prompts o instrucciones puedes utilizar en otras herramientas de IA generativa o incluso en la misma. Por ejemplo, Eres Prompt Engieneering yo ingreso el texto y me como el texto generado para formar un prompt completo para que ChatGPT actue de tal forma. El propósito de esta técnica es que la IA, como ChatGPT, te ofrezca sugerencias sobre qué prompts utilizar para mejorar tus interacciones o para ayudarte a formular instrucciones cuando no tengas una idea clara de cómo estructurar tu prompt. Es una forma de optimizar y obtener resultados más precisos y útiles de la IA. ### [Para generar imagenes](https://github.com/Freddy875/TrentSteel/blob/gh-pages1/index.md#para-generar-imagenes) Eres ingeniero de prompt, experto en ingeligencias artificiales generativas de texto a imagen como Dall-E y StableDiffusion. Ayudame a mejorar mis prompts. Yo te digo de que quiero la imagen y tu lo transformas usando tus conocimientos de ingenieria de prompts. Muestrame el prompt en español y en ingles. Antes de empezar presentate. ¿Entienes lo que tienes que hacer? **Nota 1:** La razón por la que se la pedimos en inglés es porque la mayoria de la IA generativas de texto a imagen funcionna en ingles. Y se lo pedimos en español para que veamos que es lo que esta generando y vemos si estamos en el mismo entendido. ### [Para genera prompts](https://github.com/Freddy875/TrentSteel/blob/gh-pages1/index.md#para-genera-prompts) * Actua como Prompt Engineerig, experto en ingeligencias artificiales generativas de texto a texto. A los textos que yo ingrese por favor dime ¿Cual seria el prompt más completo para que ChatGPT actue segun lo que yo escriba? Antes de empezar presentate y explicame lo que tienes que hacer * Eres Prompt Engieneering yo ingreso el texto y me como el texto generado para formar un prompt completo para que ChatGPT actue de tal forma. Antes de comenzar presentate. ¿Entienes lo que tienes que hacer? * ¿Cual seria el prompt para que actue como una Analista Financiero, que ayude en en analisis de los estados financieros, dando recomendaciones segun lo estados financieros, esperando que se ingresen los estos financieros para dar las recomendaciones y mejorar la toma de deciciones de la empresa ? * Cual seria el prompt para decirle a ChatGPT que actue como analista financiero más completo que ayude al analisis de los estados financieros, dando sugerencias segun los datos ingresados?
A mi me gusta más Stable Diffusion
No tenía ni idea que es esto lo que hay detrás del text to image.

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Difusion es una tecnica que se encarga de agregar ruido a una imagen

Para crear imágenes en Dall-E se requiere pagar

1. Text

Estas IA funcionan con 2 perspectivas. 1. Entendimiento del texto. 2. Generation Image.

"Text to Image" es una técnica utilizada para generar imágenes o ilustraciones a partir de una descripción de texto que se proporciona como entrada. Esta técnica aprovecha modelos de inteligencia artificial y aprendizaje automático para transformar una descripción textual en una imagen que corresponda a esa descripción. Esencialmente, el proceso implica convertir el lenguaje natural en contenido visual

Soy en único que piensa que Dall-E me suena como Wall-E el simpatico Robot de la pelicula homonima de Disney Pixar

Tienes la capacidad de producir cualquier descripción o imagen siempre y cuando esté en inglés.

This not is free

Muy interesante

No es magia es ciencia!!!

Clip

Este fue mi promt![](````

Create an image in DALLE-2 that combines cyberpunk elements with the music of Gustavo Cerati, Charly García, and Fito Paez. Use vibrant and saturated colors, as well as technological and futuristic elements that suggest a dystopian society. The three musicians should be represented in the image, perhaps as avatars or digital characters. The image should be a tribute to the music of these artists and their influence on Latin American culture. Let the future meet the past in your design! y la les muestro como me quedo por que no pude subir la imagen!j

Lo primero que generé con Dalle-E: el Homero Simpson bailando reggaeton

Gracias, esperaba este curso, toca afinar la técnica.

Tenía muchas ganas de este curso. Enhorabuena Carlos. Ni intentes utilizarlo para generar assets para la creación de videojuegos. Espero que pronto sigas grabando la continuacion de este y nos lleves por otros mundos. 🙂 Voy a probar todo esto en un proyecto cyberpunk. El devblog: puede seguirse aquí: https://youtube.com/@DaniMartinIndie Gracias y ánimos con el curso!

:3 Ya me emocione.

Muchas expectativas por este curso, amo aquí!