Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Sigmoide

Explora el papel de la función sigmoidea en el aprendizaje automático. Descubre cómo esta función de activación permite la clasificación binaria en modelos como Ultralytics .

La función sigmoide es un componente matemático fundamental que se utiliza ampliamente en los campos del aprendizaje automático (ML) y el aprendizaje profundo (DL). A menudo denominada «función de aplastamiento», toma cualquier número real como entrada y lo asigna a un valor entre 0 y 1. Esta característica curva en forma de «S» la hace increíblemente útil para convertir los resultados brutos del modelo en probabilidades interpretables. En el contexto de una red neuronal (NN), la función sigmoide actúa como una función de activación, introduciendo no linealidad que permite a los modelos aprender patrones complejos más allá de las simples relaciones lineales. Aunque ha sido sustituida en gran medida por otras funciones en capas ocultas profundas, sigue siendo una opción estándar para las capas de salida en tareas de clasificación binaria .

La mecánica de la sigmoide en la IA

En esencia, la función sigmoide transforma los datos de entrada —a menudo denominados logits— en un rango normalizado. Esta transformación es crucial para tareas cuyo objetivo es predecir la probabilidad de que se produzca un evento. Al limitar la salida entre 0 y 1, la función proporciona una puntuación de probabilidad clara.

  • Regresión logística: En el modelado estadístico tradicional, Sigmoid es el motor que hay detrás de la regresión logística. Permite a los científicos de datos estimar la probabilidad de un resultado binario, como si un cliente se dará de baja o se quedará.
  • Clasificación binaria: Para las redes neuronales diseñadas para distinguir entre dos clases (por ejemplo, «gato» frente a «perro»), la capa final suele emplear una activación sigmoidea. Si la salida es superior a un umbral (normalmente 0,5), el modelo predice la clase positiva.
  • Clasificación multietiqueta: A diferencia de los problemas multiclase, en los que las clases son mutuamente excluyentes, las tareas multietiqueta permiten que una imagen o un texto pertenezcan a varias categorías simultáneamente. En este caso, se aplica Sigmoid de forma independiente a cada nodo de salida, lo que permite que un modelo detect «coche» y una «persona» en la misma escena sin conflicto.

Diferencias clave con respecto a otras funciones de activación

Aunque Sigmoid fue en su momento el valor predeterminado para todas las capas, los investigadores descubrieron limitaciones como el problema del gradiente de desaparición, en el que los gradientes se vuelven demasiado pequeños para actualizar los pesos de manera efectiva en redes profundas. Esto llevó a la adopción de alternativas para las capas ocultas .

  • Sigmoide frente a ReLU (unidad lineal rectificada): ReLU es más rápido desde el punto de vista computacional y evita los gradientes que se desvanecen al generar directamente la entrada si es positiva y cero en caso contrario. Es la opción preferida para las capas ocultas en arquitecturas modernas como YOLO26, mientras que la sigmoide se reserva para la capa de salida final en tareas específicas.
  • Sigmoide frente a Softmax: ambos asignan salidas a un rango de 0-1, pero tienen fines diferentes. La sigmoide trata cada salida de forma independiente, lo que la hace ideal para tareas binarias o multietiqueta. Softmax obliga a que todas las salidas sumen 1, creando una distribución de probabilidad que se utiliza para la clasificación multiclase en la que solo una clase es correcta.

Aplicaciones en el mundo real

La utilidad de la función sigmoide se extiende a diversos sectores en los que se requiere la estimación de probabilidades.

  1. Diagnóstico médico: Los modelos de IA utilizados en el análisis de imágenes médicas suelen emplear salidas sigmoideas para predecir la probabilidad de que una enfermedad esté presente en una radiografía o una resonancia magnética. Por ejemplo, un modelo podría dar como resultado 0,85, lo que indicaría un 85 % de probabilidad de que haya un tumor, lo que ayudaría a los médicos en la detección precoz.
  2. Detección de spam: Los sistemas de filtrado de correo electrónico utilizan modelos de procesamiento del lenguaje natural (NLP) con clasificadores sigmoides para determinar si un mensaje entrante es «spam» o «no spam». El modelo analiza palabras clave y metadatos, y genera una puntuación que determina si el correo electrónico llega a la bandeja de entrada o a la carpeta de correo no deseado.

Aplicación práctica

Puede observar cómo Sigmoid transforma los datos utilizando PyTorch, una popular biblioteca para crear modelos de aprendizaje profundo. Este sencillo ejemplo muestra el efecto de «aplastamiento» en un rango de valores de entrada.

import torch
import torch.nn as nn

# Create a Sigmoid layer
sigmoid = nn.Sigmoid()

# Define input data (logits) ranging from negative to positive
input_data = torch.tensor([-5.0, -1.0, 0.0, 1.0, 5.0])

# Apply Sigmoid to squash values between 0 and 1
output = sigmoid(input_data)

print(f"Input: {input_data}")
print(f"Output: {output}")
# Output values near 0 for negative inputs, 0.5 for 0, and near 1 for positive inputs

Para aquellos que deseen entrenar modelos que utilicen estos conceptos sin escribir código de bajo nivel, la Ultralytics ofrece una interfaz intuitiva para gestionar conjuntos de datos y entrenar modelos de última generación como YOLO26. Al gestionar automáticamente las complejidades arquitectónicas, permite a los usuarios centrarse en recopilar datos de entrenamiento de alta calidad para sus aplicaciones específicas de visión artificial.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora