Glosario

Incrustación estocástica de vecinos distribuida en t (t-SNE)

Explore t-SNE, una potente técnica para visualizar datos de alta dimensión. Conozca sus usos, ventajas y aplicaciones en IA y ML.

t-distributed Stochastic Neighbor Embedding (t-SNE) es una potente técnica no lineal de reducción de la dimensionalidad que se utiliza principalmente para la visualización de datos. Permite a los investigadores y profesionales del aprendizaje automático (Machine Learning, ML ) visualizar conjuntos de datos de alta dimensión en un espacio de baja dimensión, normalmente un gráfico 2D o 3D. Desarrollado por Laurens van der Maaten y Geoffrey Hinton, su principal ventaja es su notable capacidad para revelar la estructura local subyacente de los datos, como clusters y manifolds, que otras técnicas podrían pasar por alto. Existen numerosas implementaciones en bibliotecas como Scikit-learn y frameworks como PyTorch.

La idea central de t-SNE es situar los puntos de datos similares cerca y los puntos disímiles lejos en un mapa de baja dimensión. Para ello, convierte las distancias euclidianas de alta dimensión entre los puntos de datos en probabilidades condicionales que representan similitudes. A continuación, utiliza una distribución de probabilidad similar en el mapa de baja dimensión y minimiza la divergencia entre estas dos distribuciones.

Aplicaciones en Ai y Ml

t-SNE se utiliza ampliamente para la exploración visual en diversos ámbitos de la Inteligencia Artificial (IA).

  • Visualización de características de redes neuronales: En visión por computador (CV), t-SNE es inestimable para comprender lo que ha aprendido un modelo de aprendizaje profundo. Por ejemplo, puede tomar las incrustaciones de características de una capa intermedia de una red neuronal convolucional (CNN ) entrenada para la clasificación de imágenes y utilizar t-SNE para trazarlas. Si el modelo, como el modelo YOLO de Ultralytics, está bien entrenado en un conjunto de datos como CIFAR-10, el gráfico resultante mostrará distintos grupos correspondientes a las diferentes categorías de imágenes (por ejemplo, "gatos", "perros", "coches"). Esto confirma visualmente la capacidad de discriminación del modelo.
  • Exploración de datos de texto: En el Procesamiento del Lenguaje Natural (PLN), t-SNE puede visualizar incrustaciones de palabras de alta dimensión como Word2Vec o GloVe. Esto ayuda a comprender las relaciones semánticas entre palabras; por ejemplo, palabras como "rey", "reina", "príncipe" y "princesa" se agruparían juntas. Estas visualizaciones son útiles para explorar corpus de texto y depurar modelos lingüísticos utilizados en tareas como la clasificación de documentos.
  • Bioinformática e imágenes médicas: Los investigadores utilizan t-SNE para visualizar datos biológicos complejos, como patrones de expresión génica de microarrays, para identificar poblaciones celulares o subtipos de enfermedades. También se utiliza en el análisis de imágenes médicas para agrupar distintos tipos de tejidos o tumores, como en el conjunto de datos de tumores cerebrales.

T-SNE Vs. Otras técnicas

Es importante distinguir t-SNE de otros métodos de reducción de la dimensionalidad.

  • Análisis de componentes principales (ACP): El PCA es una técnica lineal centrada en preservar la varianza máxima de los datos, lo que corresponde a preservar la estructura global a gran escala. En cambio, t-SNE es un método no lineal que destaca por revelar la estructura local (es decir, cómo se agrupan los puntos de datos individuales). Aunque el PCA es más rápido y determinista, su naturaleza lineal puede no captar las relaciones complejas que sí capta el t-SNE. Es práctica común utilizar primero el PCA para reducir un conjunto de datos a un número intermedio de dimensiones (por ejemplo, 30-50) antes de aplicar el t-SNE para reducir la carga computacional y el ruido.
  • Autocodificadores: Los autocodificadores son un tipo de red neuronal que puede aprender representaciones de datos potentes y no lineales. Aunque son más flexibles que el PCA y el t-SNE, suelen ser menos interpretables y más costosos de entrenar desde el punto de vista computacional. Se utilizan principalmente para la extracción de características más que para la visualización directa.

Consideraciones y limitaciones

Aunque potente, t-SNE tiene algunas limitaciones que los usuarios deben tener en cuenta.

  • Coste computacional: El algoritmo tiene una complejidad temporal y espacial cuadrática en el número de puntos de datos, lo que lo hace lento para conjuntos de datos con cientos de miles de muestras. Técnicas como Barnes-Hut t-SNE ofrecen mejoras de rendimiento significativas.
  • Sensibilidad a los hiperparámetros: Los resultados pueden verse influidos significativamente por sus hiperparámetros, en particular la "perplejidad", que es una estimación del número de vecinos cercanos que tiene cada punto. No existe un único valor de perplejidad que sea universalmente el mejor. Un excelente recurso para entender estos efectos es el artículo de Distill"How to Use t-SNE Effectively".
  • Interpretación de la estructura global: las visualizaciones t-SNE deben interpretarse con precaución. Los tamaños relativos de los conglomerados y las distancias entre ellos en el gráfico final no reflejan necesariamente la separación real en el espacio original de alta dimensión. El algoritmo se centra en preservar los vecindarios locales, no la geometría global. Herramientas como el Proyector TensorFlow permiten la exploración interactiva, lo que puede ayudar a construir la intuición. La gestión y visualización de estos análisis puede agilizarse mediante plataformas como Ultralytics HUB.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles