Please enable JavaScript.
Coggle requires JavaScript to display documents.
Tipos de Modelo de Procesamiento, Villalpando Rivera Ismael. Procesamiento…
Tipos de Modelo de Procesamiento
Regresión
Se define como
El análisis de regresión es un método estadístico que permite examinar la relación entre dos o más variables e identificar cuáles son las que tienen mayor impacto en un tema de interés.
Se clasifica
Lineal simple
Es una forma que permite modelar una relación entre dos conjuntos de variables. El resultado es una ecuación que se puede utilizar para hacer proyecciones o estimaciones sobre los datos.
Lineal múltiple
Es una técnica estadística que se encarga de analizar situaciones que involucran más de una variable.
No lineal
Es un proceso más complicado donde puede ocurrir que en el número de parámetros no coincida con el de variables explicativas.
Redes Neuronales
Se define como
Estas son un método de inteligencia artificial, que inspirada en el cerebro humano enseña a las computadoras o maquinas a procesar datos.
Aprenden a través de
Procesando varios conjuntos grandes de datos y son supervisadas por medio de un grupo de data proporcionada por data scientists, que, etiquetada, ofrece una respuesta correcta por adelantado.
Se clasifican
Prealimentadas
Las redes neuronales prealimentadas procesan los datos en una dirección, desde el nodo de entrada hasta el nodo de salida.
Convolucionales
Realizan funciones matemáticas específicas, como la síntesis o el filtrado, denominadas convoluciones. Son muy útiles para la clasificación de imágenes.
Recurrente
Se utiliza principalmente en el reconocimiento de voz y el procesamiento automático del lenguaje natural ( NLP, TNL ). Además, se usan combinando pasos previos en el tiempo para la representación de los pasos actuales.
Aprendizaje supervisado
En el aprendizaje supervisado, los científicos de datos proporcionan a las redes neuronales artificiales conjuntos de datos etiquetados que ofrecen la respuesta correcta por adelantado.
KNN
Se define como
es un clasificador de aprendizaje supervisado no paramétrico, que utiliza la proximidad para hacer clasificaciones o predicciones sobre la agrupación de un punto de datos individual.
Se utiliza para
Si bien se puede usar para problemas de regresión o clasificación, generalmente se usa como un algoritmo de clasificación, partiendo de la suposición de que se pueden encontrar puntos similares cerca uno del otro.
Diferencias con KMeans
No existe un proceso de preentrenamiento, que pertenece al aprendizaje basado en la memoria
KNN es un algoritmo de clasificación
Utiliza aprendizaje supervisado
El conjunto de datos que se le envía está etiquetado
KMeans
Se define como
La agrupación K Means es un tipo de Aprendizaje no Supervisado, que se utiliza cuando se tienen datos no etiquetados, es decir, datos sin categorías o grupos definidos.
Su objetivo es
El objetivo de este algoritmo es encontrar grupos en los datos, con el número de grupos representados por la variable K.
Diferencias con KNN
El conjunto de datos que se le envía son datos sin etiquetar.
Hay un proceso de preentrenamiento.
K-Means es un algoritmo de agrupación
Aprendizaje no supervisado
Clustering
Consiste en
Agrupar ítems en grupos con características similares que se conocen como clústeres, generalmente con el objetivo de identificar patrones, aunque también se utiliza en tareas de segmentación.
Ayuda a
desarrollar capacidades de análisis rápidamente, usando grandes volúmenes de datos y cometiendo la menor cantidad de errores posible.
BiClustering
Se define como
El biclustering en biología y Big Data utiliza algoritmos de biagrupamiento que agrupan simultáneamente filas y columnas de una matriz de datos para el análisis de datos.
Se utiliza en
El biclustering es una herramienta principalmente de minería de datos que permite la agrupación de filas y columnas, de manera simultánea, en un dataset en formato de matriz.
DBScan
Se define como
DBSCAN es un algoritmo de clúster o agrupamiento basado en la densidad que puede ser utilizado para identificar clústeres de cualquier forma en un conjunto de datos que contiene ruido y valores atípicos.
Su idea clave
para cada punto de un clúster, la vecindad de un radio dado tiene que contener al menos un número mínimo de puntos.
Su atributo mas destacable
es que puede encontrar cualquier forma arbitraria de cluster sin verse afectado por el ruido. Además, puede encontrar la parte más densa de las muestras centradas en datos, ignorando áreas menos densas o ruidos.
Villalpando Rivera Ismael. Procesamiento masivo de dato. Cutonala. 2023-A