Undersampling y Oversampling son técnicas utilizadas para manejar conjuntos de datos desbalanceados en machine learning.
Undersampling: Reduce la cantidad de instancias de la clase mayoritaria para equilibrar el conjunto.
Ventajas: Simplicidad y velocidad de entrenamiento.
Desventajas: Puede perder información valiosa.
Oversampling: Aumenta la clase minoritaria replicando instancias o generando nuevas.
Ventajas: Mantiene toda la información.
Desventajas: Puede llevar a sobreajuste y tiempo de entrenamiento más largo.
Ambas son útiles, así que elegir la adecuada depende del contexto de tu proyecto.