Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Instalar
¡Más rápido que el navegador!
 

Aprendizaje no supervisado

Índice Aprendizaje no supervisado

El aprendizaje no supervisado es un método de aprendizaje automático (AA) donde un modelo se ajusta a las observaciones.

24 relaciones: A priori y a posteriori, Algoritmo de agrupamiento, Algoritmo esperanza-maximización, Análisis de componentes principales, Análisis de grupos, Aprendizaje automático, Aprendizaje supervisado, Compresión de datos, Distribución de probabilidad, Estadística multivariante, Geoffrey Hinton, Inferencia bayesiana, Jürgen Schmidhuber, Mapa autoorganizado, Metaaprendizaje (ciencias de la computación), MIT Press, Probabilidad, Procesado de señal, Reconocimiento de patrones, Red neuronal artificial, RNA de base radial, Teoría de la resonancia adaptativa, Terry Sejnowski, Variable aleatoria.

A priori y a posteriori

Las locuciones latinas a priori (‘previo a’) y a posteriori (‘posterior a’) se utilizan para distinguir entre dos tipos de conocimiento: el conocimiento a priori es aquel que, en algún sentido importante, es independiente de la experiencia; mientras que el conocimiento a posteriori es aquel que, en algún sentido importante, depende de la experiencia.

¡Nuevo!!: Aprendizaje no supervisado y A priori y a posteriori · Ver más »

Algoritmo de agrupamiento

Un algoritmo de agrupamiento (en inglés, clustering) es un procedimiento de agrupación de una serie de vectores de acuerdo con un criterio.

¡Nuevo!!: Aprendizaje no supervisado y Algoritmo de agrupamiento · Ver más »

Algoritmo esperanza-maximización

El algoritmo esperanza-maximización o algoritmo EM se usa en estadística para encontrar estimadores de máxima verosimilitud de parámetros en modelos probabilísticos que dependen de variables no observables.

¡Nuevo!!: Aprendizaje no supervisado y Algoritmo esperanza-maximización · Ver más »

Análisis de componentes principales

En estadística, el análisis de componentes principales (en español ACP, en inglés, PCA) es una técnica utilizada para describir un conjunto de datos en términos de nuevas variables («componentes») no correlacionadas.

¡Nuevo!!: Aprendizaje no supervisado y Análisis de componentes principales · Ver más »

Análisis de grupos

Análisis de grupos o agrupamiento es la tarea de agrupar objetos por similitud, en grupos o conjuntos de manera que los miembros del mismo grupo tengan características similares.

¡Nuevo!!: Aprendizaje no supervisado y Análisis de grupos · Ver más »

Aprendizaje automático

El aprendizaje automático (AA), aprendizaje automatizado, aprendizaje de máquinas o aprendizaje computacional (del inglés, machine learning) es el subcampo de las ciencias de la computación y una rama de la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las computadoras aprendan.

¡Nuevo!!: Aprendizaje no supervisado y Aprendizaje automático · Ver más »

Aprendizaje supervisado

En aprendizaje automático (AA) y minería de datos, el aprendizaje supervisado es una técnica para deducir una función a partir de datos de formación.

¡Nuevo!!: Aprendizaje no supervisado y Aprendizaje supervisado · Ver más »

Compresión de datos

En ciencias de la computación, la compresión de datos es la reducción del volumen de datos tratables para representar una determinada información empleando una menor cantidad de espacio.

¡Nuevo!!: Aprendizaje no supervisado y Compresión de datos · Ver más »

Distribución de probabilidad

En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable, la probabilidad de que dicho suceso ocurra.

¡Nuevo!!: Aprendizaje no supervisado y Distribución de probabilidad · Ver más »

Estadística multivariante

La estadística multivariante o multivariada es una rama de las estadísticas que abarca la observación y el análisis simultáneos de más de una variable respuesta.

¡Nuevo!!: Aprendizaje no supervisado y Estadística multivariante · Ver más »

Geoffrey Hinton

Geoffrey Hinton (Wimdledon, Reino Unido, 6 de diciembre de 1947) es un informático británico.

¡Nuevo!!: Aprendizaje no supervisado y Geoffrey Hinton · Ver más »

Inferencia bayesiana

La inferencia bayesiana es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta.

¡Nuevo!!: Aprendizaje no supervisado e Inferencia bayesiana · Ver más »

Jürgen Schmidhuber

Jürgen Schmidhuber (Munich, 17 de enero de 1963) es un informático alemán.

¡Nuevo!!: Aprendizaje no supervisado y Jürgen Schmidhuber · Ver más »

Mapa autoorganizado

Un mapa autoorganizado (self-organizing map, SOM) o un mapa autoorganizado de características (self-organizing feature map, SOFM) es un tipo de red neuronal artificial (ANN por sus siglas en inglés), que es entrenada usando aprendizaje no supervisado para producir una representación discreta del espacio de las muestras de entrada, llamado mapa.

¡Nuevo!!: Aprendizaje no supervisado y Mapa autoorganizado · Ver más »

Metaaprendizaje (ciencias de la computación)

El metaaprendizaje es un subcampo del aprendizaje automático (AU).

¡Nuevo!!: Aprendizaje no supervisado y Metaaprendizaje (ciencias de la computación) · Ver más »

MIT Press

MIT Press es una editorial universitaria afiliada a Instituto Tecnológico de Massachusetts (MIT).

¡Nuevo!!: Aprendizaje no supervisado y MIT Press · Ver más »

Probabilidad

La probabilidad es una medida de la certidumbre de que ocurra un evento.

¡Nuevo!!: Aprendizaje no supervisado y Probabilidad · Ver más »

Procesado de señal

El procesado de señal (también conocido como tratamiento o procesamiento de señales) es la disciplina que desarrolla y estudia las técnicas de tratamiento (filtrado, amplificación,...), el análisis y la clasificación de las señales.

¡Nuevo!!: Aprendizaje no supervisado y Procesado de señal · Ver más »

Reconocimiento de patrones

El reconocimiento de patrones es la ciencia que se ocupa de los procesos sobre ingeniería, computación y matemáticas relacionados con objetos físicos o abstractos, con el propósito de extraer información que permita establecer propiedades de entre conjuntos de dichos objetos.

¡Nuevo!!: Aprendizaje no supervisado y Reconocimiento de patrones · Ver más »

Red neuronal artificial

Las redes neuronales artificiales (también conocidas como sistemas conexionistas) son un modelo computacional evolucionado a partir de diversas aportaciones científicas que están registradas en la historia. Consiste en un conjunto de unidades, llamadas neuronas artificiales, conectadas entre sí para transmitirse señales. La información de entrada atraviesa la red neuronal (donde se somete a diversas operaciones) produciendo unos valores de salida. Cada neurona está conectada con otras a través de unos enlaces. En estos enlaces el valor de salida de la neurona anterior es multiplicado por un valor de peso. Estos pesos en los enlaces pueden incrementar o inhibir el estado de activación de las neuronas adyacentes. Del mismo modo, a la salida de la neurona, puede existir una función limitadora o umbral, que modifica el valor resultado o impone un límite que no se debe sobrepasar antes de propagarse a otra neurona. Esta función se conoce como función de activación. Estos sistemas aprenden y se forman a sí mismos, en lugar de ser programados de forma explícita, y sobresalen en áreas donde la detección de soluciones o características es difícil de expresar con la programación convencional. Para realizar este aprendizaje automático, normalmente, se intenta minimizar una función de pérdida que evalúa la red en su total. Los valores de los pesos de las neuronas se van actualizando buscando reducir el valor de la función de pérdida. Este proceso se realiza mediante la propagación hacia atrás. El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro humano, aunque las redes neuronales son más abstractas. Las redes neuronales actuales suelen contener desde unos miles a unos pocos millones de unidades neuronales. Nuevas investigaciones sobre el cerebro a menudo estimulan la creación de nuevos patrones en las redes neuronales. Un nuevo enfoque está utilizando conexiones que se extienden mucho más allá y capas de procesamiento de enlace en lugar de estar siempre localizado en las neuronas adyacentes. Otra investigación está estudiando los diferentes tipos de señal en el tiempo que los axones se propagan, como el aprendizaje profundo, interpola una mayor complejidad que un conjunto de variables booleanas que son simplemente encendido o apagado. Las redes neuronales se han utilizado para resolver una amplia variedad de tareas, como la visión por computador y el reconocimiento de voz, que son difíciles de resolver usando la ordinaria programación basado en reglas. Históricamente, el uso de modelos de redes neuronales marcó un cambio de dirección a finales de los años ochenta de alto nivel, que se caracteriza por sistemas expertos con conocimiento incorporado en si-entonces las reglas, a bajo nivel de aprendizaje automático, caracterizado por el conocimiento incorporado en los parámetros de un modelo cognitivo con algún sistema dinámico.

¡Nuevo!!: Aprendizaje no supervisado y Red neuronal artificial · Ver más »

RNA de base radial

Las redes de base radial son un tipo de redes de neuronas artificiales que calculan la salida de la función en función de la distancia a un punto denominado centro.

¡Nuevo!!: Aprendizaje no supervisado y RNA de base radial · Ver más »

Teoría de la resonancia adaptativa

La teoría de la resonancia adaptativa (adaptive resonance theory, conocido por sus siglas inglesas ART), desarrollada por Stephen Grossberg y Gail Carpenter.

¡Nuevo!!: Aprendizaje no supervisado y Teoría de la resonancia adaptativa · Ver más »

Terry Sejnowski

Terrence Joseph Sejnowski (1947, Cleveland, Estados Unidos) es un investigador del Instituto Médico Howard Hughes y es el profesor Francis Crick en el Instituto Salk de Estudios Biológicos, donde dirige el laboratorio de Neurobiología Computacional.

¡Nuevo!!: Aprendizaje no supervisado y Terry Sejnowski · Ver más »

Variable aleatoria

En probabilidad y estadística, una variable aleatoria es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio.

¡Nuevo!!: Aprendizaje no supervisado y Variable aleatoria · Ver más »

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »