Las redes nombradas anteriormente, son simplemente transformaciones vectoriales que cambian un vector de entrada a un número de elementos de salida (neuronas). La transformación auto organizativa de las redes de componentes principales, rota el espacio de entrada, de tal manera que las neuronas de salida, tienen correlación mínima y las varianzas de los patrones está concentrada principalmente en unas pocas de ellas. Esto significa que al rotar el espacio de puntos, se tomará el conjunto de puntos más cercanos al eje, ya que estos serán los con mínima varianza y con cero correlación.
El análisis de componentes principales, es usado para reducir la dimensión de problemas, y transformar coordenadas interdependientes a unos significativos e independientes. Tal método es sumamente útil en el análisis de grandes cantidades de información, ya que decide cuales son los puntos más relevantes y significativos del conjunto de datos
Copyright Nelson Flores 2001.
Departamento de Ciencias de la Computacion, Universidad de Chile.