Aprendizaje supervisado

El aprendizaje supervisado es una técnica de aprendizaje automático que tiene como objetivo instruir a un sistema informático de tal manera que pueda procesar automáticamente predicciones sobre los valores de salida de un sistema en relación con una entrada basada en un conjunto de ejemplos ideales, que consisten en pares de entrada y salida, que se le proporcionan inicialmente. Los Algoritmos de aprendizaje supervisado se pueden utilizar en una variedad de industrias. Los ejemplos incluyen el campo médico en el que se puede predecir el inicio de crisis particulares sobre la base de la experiencia de datos biométricos pasados, la identificación de voz que mejora sobre la base de la escucha de audio pasada, la identificación de escritura manual que mejora en las observaciones de los ejemplos presentados por el usuario.

El objetivo de un sistema basado en el aprendizaje supervisado es producir una hipótesis inductiva, es decir, una función capaz de "aprender" de los resultados proporcionados durante la fase de ejemplo y capaz de acercarse a los resultados deseados para todos los ejemplos no proporcionados. La casística de los resultados puede ser muy variada; sin embargo, diferencia el aprendizaje de los valores cuantitativos (comúnmente llamados " regresión ") de los valores cualitativos (llamados " clasificación ") . Desde el punto de vista de la lógica, una implementación clásica de aprendizaje supervisado consiste en: todos los Algoritmos de aprendizaje supervisado parte de la suposición de que, si proporcionamos el sistema con un número suficiente de ejemplos, este acumulará experiencia y suficiente para permitirle crear una función H es adecuada para aproximarse a la función H b (y luego el comportamiento deseado de la persona que proporcionó los ejemplos). Dada la similitud entre las funciones H a y h b, cuando proponemos al sistema Datos de entrada no presentes en su experiencia E, la función H a debe ser capaz de aproximarse a la función h b con suficiente precisión y proporcionar respuestas o suficientemente satisfactorias. Para lograr este objetivo, el sistema a menudo utiliza dos principios: distribución (matemáticas) y función de probabilidad. Una vez identificada la distribución matemática que vincula la variación de los valores de entrada a los valores de salida deseados, el sistema elige los parámetros que maximizan la probabilidad de los datos y expresa la función de probabilidad apropiada.

Muchos de estos algoritmos funcionan de manera eficiente si funcionan en un mundo lineal, asumiendo que entradas similares corresponden a salidas similares. Hay muchas condiciones en las que tal aproximación es aceptable, pero no siempre es así. La estimación de la función de verosimilitud sirve para mitigar los problemas que surgen del tratamiento de problemas no completamente lineales. Usted puede adivinar fácilmente que el funcionamiento adecuado y eficiente de estos algoritmos depende significativamente de la experiencia; si usted proporciona un poco de experiencia, el algoritmo puede no crear una función interna de manera eficiente, mientras que con una función interna excesiva experiencia puede llegar a ser muy compleja para hacer que ralentice la ejecución del algoritmo. Estos algoritmos son muy sensibles al ruido, incluso un poco de datos incorrectos podría hacer que todo el sistema no sea confiable y conducir a decisiones equivocadas. Una solución a este problema es asociarlos con controladores que dependen de la lógica lógica difusa. Tradicionalmente los principales algoritmos han sido: la investigación actual se centra en lo que se consideran las dos clases principales de Algoritmos posibles: los métodos generativos se basan en la creación de un modelo de datos que luego se utiliza para predecir las respuestas deseadas (o datos de salida). Ejemplos son Redes Bayesianas o más generalmente modelos gráficos. Los métodos discriminativos, por el contrario, tratan de modelar directamente la relación entre los datos entrantes y salientes, con el fin de minimizar una función objetiva (función de pérdida en la literatura). Ejemplos de este tipo de modelo son máquinas vectoriales de soporte y, más generalmente, métodos basados en funciones del núcleo.

Aprendizaje automático

Traductor De DeepL

DeepL Translator es un servicio de traducción multilingüe gratuito, impulsado por la base de conocimientos de linguee. se. A partir de enero de 2019, DeepL admi...

Deepfake

Deepfake (word acuñado en 2017) es una técnica de síntesis de imágenes humanas basada en inteligencia artificial, utilizada para combinar y superponer imágenes ...

Sitios

Traductores automáticos

Análisis de datos

Pornografía

Infografía

Esta página se basa en el artículo de Wikipedia: Fuente, Autores, Licencia Creative Commons Reconocimiento-CompartirIgual.
This page is based on the Wikipedia article: Source, Authors, Creative Commons Attribution-ShareAlike License.
contactos
Política de privacidad , Descargos de responsabilidad