Generación de imágenes con Stable Diffusion

1

Generación de imágenes con Stable Diffusion Online

2

¿Cómo funciona text-to-Image: difussion?

3

Stable Diffusion con Google Colab y DreamStudio

Quiz: Generación de imágenes con Stable Diffusion

Generación de imágenes desde AUTOMATIC 11111

4

Instalación de AUTOMATIC 1111

5

AUTOMATIC 1111: interfaz web de Stable Diffusion

Quiz: Generación de imágenes desde AUTOMATIC 11111

Mejora de prompts para Stable Diffusion

6

Prompt tuning con Stable Diffusion

7

Prompt tuning con Stable Diffusion: práctica

Quiz: Mejora de prompts para Stable Diffusion

Inpainting y outpainting con Stable Diffusion

8

Stable Diffusion: Inpainting

9

Instalación de PaintHua

10

Stable Diffusion: Outpainting con PaintHua

Quiz: Inpainting y outpainting con Stable Diffusion

Funciones avanzadas de Stable Diffusion

11

Upscale: escalado de imágenes

12

Image-to-Image

13

Depth-to-Image

14

Merge models: combinar modelos de difussion

15

Qué es Control Net de Stable Difussion y cómo utilizarlo.

Quiz: Funciones avanzadas de Stable Diffusion

DreamBooth: fine tuning de modelos de difusión

16

¿Cómo funciona DreamBooth?

17

DreamBooth: fine-tuning

Quiz: DreamBooth: fine tuning de modelos de difusión

Implicaciones éticas y económicas de imágenes con inteligencia artificial

18

Sesgos y bias en modelos de generación de imágenes

19

¿Cómo afecta la generación de imágenes con IA a otras profesiones?

20

Impacto de arte y diseño con IA: entrevista con Daniel Torres Burriel

21

Perspectiva de artistas y diseñadoras: entrevista con Amelia Amórtegui

Quiz: Implicaciones éticas y económicas de imágenes con inteligencia artificial

Conclusión

22

¿Qué esperar de Stable Diffusion y el open source en el futuro?

You don't have access to this class

Keep learning! Join and start boosting your career

Aprovecha el precio especial y haz tu profesión a prueba de IA

Antes: $249

Currency
$209
Suscríbete

Termina en:

0 Días
12 Hrs
41 Min
12 Seg

DreamBooth: fine-tuning

17/23
Resources

How to train a Stable Diffusion model with DreamVault?

Welcome to the exciting world of diffusion model training, where you can create unique concepts using DreamVault. In this guide, we learn how to customize the Stable Diffusion model to represent a specific concept, such as your own face. With the right tools, you will be able to do this effectively, optimizing resources and getting exceptional results. Let's dive into the customization process.

What do you need to start training?

To train a diffusion model, a number of technical requirements are essential. These can be:

  • Adequate RAM: A minimum of 10 GB of VRAM is needed to perform the training on your laptop or system.
  • Suitable tool: We will use Automatic 11.11 for the training, or you can opt for Google Colab if you do not have the minimum hardware requirements.
  • Educational resources: A detailed blog and a YouTube video are available to guide you step-by-step in running with Google Colab.

Make sure you comply with these points before proceeding.

How to set up Automatic 11.11 for training?

The setup process is simple if you follow these steps:

  1. Extensions Installation: Login to Automatic 11.11, go to "Extensions", select "Available", and from there search for DreamVoot. Click "Install" to start the download from GitHub.
  2. Restarting the instance: Once the installation is complete, restart Automatic 11.11. This will allow the DreamVoot tab to appear in the interface.

How to start model training.

Now that the environment is configured, continue with the following steps to train the model:

  1. Model creation: go to DreamVoot and create your model; name it, for example, "Test". Make sure you are using Stable Diffusion version 1.5 and configure "Ancestral Euler" as scheduler.

    # Model configurationmodel_name = "Test"version = "1.5"scheduler = "Euler Ancestral"create_model(model_name, version, scheduler)
  2. Parameter settings: Go to "Concepts" and set the directory of images you will use for training. Set the number of epochs and other parameters like learning rate and accuracy.

    # Training parametersepochs = 100learning_rate = 0.001precision = "FP16".
  3. PROM key: Define a phrase or vector that will associate your face with the concept of "person", making sure it is not an existing word in English.

    # Custom PROMprom_vector = "Photo of Alarcon C Person".
  4. Start training: Once everything is set up, proceed to train the model. The time it will take will depend on your GPU, but will vary between 40 to 45 minutes approximately.

    # Start trainingtrain_model()

How to evaluate the results and generate images?

Once the training is finished, you will be able to select the created model from the models section and generate images of your custom concept.

  1. Model selection: Choose the model you have just trained (e.g. "Test").

  2. Image generation: Try different art styles like "Portrait", "Digital Art" 4K, 8K, or "Pencil Sketch".

    # Image generationgenerate_image("Portrait of Alarcon C Person",  style="Digital Art 8K")

What's the next step?

Now that you've mastered the process, it's time for a challenge! Try training different diffusion models: it could be your face, a pet's face or any object you want to represent. Then, share your results and observations in the comments section - keep exploring and having fun on this path of learning with diffusion models!

Contributions 24

Questions 0

Sort by:

Want to see more contributions, questions and answers from the community?

IMPORTANTEEEEEEE:
QUE TUS IMAGENES SEAN CUADRADAS , RECOMENDACION 512 X 512, QUE NO SEA SELFIE DE CELULAR NO FUNCIONA, SALE COSAS RARAS.

En https://civitai.com/ pueden encontrar muchos fine tunnings creados con DreamBooth por la comunidad.

mi resultado, lo hice antes de tomar el curso, con un tutorial de dreamboth / Automatic1111 de Youtubepero solo seguí los pasos sin entender mucho lo que hacia y obtuve este resultado, ahora con este curso estoy entendiendo mucho mejor como funciona y a hacer un mejor tunning

Entrene a un modelo con la cara de freddy y aqui les dejo los resultados:)

El Fine Tuning usa RAM (Tenganlo presente 😉 )

Wow para la IA soy tan atractivo, Genial!

Querer es poder , tomó tiempo pero se logró, psdta volví a tomar el curso para lograrlo

😁

La interfaz cambio para el 13/11/23 xd

https://cdn.midjourney.com/dac50e69-7de4-4047-8d88-0688b6d6f222/grid_0.png Lo hice con Midjourney, sufro muchísimo y no logro instalar automatic 1111 ni usarlo desde google colab ):

Creo que al google colab del blo se le debe actualizar o probar denuevo al parecer tiene problemas con el pytorch o de versiones.

Deberian haber puesto la captura de pantalla cuando hace el entrenamiento :c

Mi foto de perfil de platzi fue el resultado de entrenar un modelo con mi cara

IMPORTANTE PARA LOS QUE TENGAN ESTE ERROR

.
WARNING : the following values were not passed to

.

  • Agregen esto al codigo

.

from accelerate.utils import write_basic_config

# Write the configuration file
write_basic_config()

.

  • En este lugar

.


.

  • Y chequen que las imgs sean en jpg

.

Suerte chicos

Costo pero da resultados asombrosos estos son los que mas me gusto

El referente es un peluche

tengo un problema y es que al instalar dreamboot me aparece una nueva version 25 que segun investigue no funciona correctamente, me gustaria saber como puedo instalar la version anterior 23 desde windows que es la que funciona correctamente, muchas gracias.

Dato Importante!
Cambio la interfaz de Stable Diffusion en Automatic1111 😦
ando buscando pestañas que en el curso explica carlos pero no la encuentro actualmente por ejemplo la de parametros
tomenlo en cuenta amigos

El segundo bloque me arroja: ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. lida 0.0.10 requires kaleido, which is not installed. llmx 0.0.15a0 requires cohere, which is not installed. llmx 0.0.15a0 requires openai, which is not installed. llmx 0.0.15a0 requires tiktoken, which is not installed. tensorflow-probability 0.22.0 requires typing-extensions<4.6.0, but you have typing-extensions 4.9.0 which is incompatible. torchaudio 2.1.0+cu121 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible. torchdata 0.7.0 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible. torchtext 0.16.0 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible. torchvision 0.16.0+cu121 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.

Vale, perfecto 12gb de memoria virutal. Pues la verdad me sobra con el poderosito hhd de hace 16 años…

Información resumida de esta clase
#EstudiantesDePlatzi

  • Se puede enseñar y crear un modelo sobre un concepto

  • Es importante tener una buena maquina

  • Luego de instalar DreamBooth debemos crear el modelo con esta interfaz

  • Dentro de la pestaña concept definimos el Prompt junto con el vector, en este caso una palabra

  • Importante Prompts negativos

  • Se pueden crear modelos para la generación de contenido

Que cosa buena esta clase !
GRANDE CARLOS! a empezar a crear y probar nuevas tecnicas de edicion y maaas!!

No tengo GPU! 😦

Hola Carlos, estoy ejecutando el colab y luego de cargar las fotos, deseo ejecutar el siguiente paso, pero sale error Como puedo corregir este mensaje? ![](https://ibb.co/hgsfZ7x)