Descenso de gradiente estocástico
scikit-learn, 2023
Abstract
El descenso de gradiente estocástico (SGD) es un enfoque sencillo pero eficiente para ajustar clasificadores y regresores lineales bajo funciones de pérdida convexa. Es muy eficiente, ya que su coste es lineal con el número de ejemplos de entrenamiento, pero mantiene una buena precisión. SGD se utiliza típicamente para problemas de aprendizaje automático de gran escala y dispersos. Para la clasificación, SGD se puede utilizar con diferentes funciones de pérdida, como bisagra, Perceptrón, Huber modificado, Log, mínimos cuadrados o Huber. Para la regresión, se puede utilizar con mínimos cuadrados, Huber o insensible a épsilon. SGD admite tres términos de regularización: norma L2, norma L1 y Red Elástica. Se ha demostrado que el SGD es una técnica eficaz para resolver problemas de aprendizaje automático de gran escala y dispersos. - Resumen generado por inteligencia artificial.
