NAIVE BAYESPrimer Parcial -gt Tema 1
Mineriacutea de Datos
Universidad del Cauca
APRENDIZAJE BAYESIANO
Enfoque probabiliacutestico al aprendizaje
Competitivo las hipoacutetesis compiten entre si venciendo la que tenga mayor probabilidad
Supervisado necesitamos conocer la clase de los ejemplos para estimar la probabilidad a posteriori de las observaciones
RAZONAMIENTO BAYESIANO
Supone que
Las hipoacutetesis estaacuten gobernadas por una distribucioacuten de probabilidad
Es posible tomar decisiones oacuteptimas razonando con estas probabilidades y las observaciones
MEacuteTODOS BAYESIANOS
Algunos meacutetodos bayesianos se encuentran entre los maacutes eficientes
Permiten interpretar el funcionamiento de otros meacutetodos en teacuterminos probabiliacutesticos
Incluso cuando no son aplicables proporcionan un estaacutendar de toma de decisioacuten oacuteptima frente al que comparar otros meacutetodos
TEOREMA DE BAYES Dado un conjunto de entrenamiento D
maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable
TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h
Probabilidad de que h sea cierta despueacutes de observar D
P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h
P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten
P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica
HIPOacuteTESIS HMAP
Hipoacutetesis hMAP maacutexima posteriori
Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten
Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable
HIPOacuteTESIS HMAP
Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
APRENDIZAJE BAYESIANO
Enfoque probabiliacutestico al aprendizaje
Competitivo las hipoacutetesis compiten entre si venciendo la que tenga mayor probabilidad
Supervisado necesitamos conocer la clase de los ejemplos para estimar la probabilidad a posteriori de las observaciones
RAZONAMIENTO BAYESIANO
Supone que
Las hipoacutetesis estaacuten gobernadas por una distribucioacuten de probabilidad
Es posible tomar decisiones oacuteptimas razonando con estas probabilidades y las observaciones
MEacuteTODOS BAYESIANOS
Algunos meacutetodos bayesianos se encuentran entre los maacutes eficientes
Permiten interpretar el funcionamiento de otros meacutetodos en teacuterminos probabiliacutesticos
Incluso cuando no son aplicables proporcionan un estaacutendar de toma de decisioacuten oacuteptima frente al que comparar otros meacutetodos
TEOREMA DE BAYES Dado un conjunto de entrenamiento D
maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable
TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h
Probabilidad de que h sea cierta despueacutes de observar D
P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h
P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten
P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica
HIPOacuteTESIS HMAP
Hipoacutetesis hMAP maacutexima posteriori
Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten
Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable
HIPOacuteTESIS HMAP
Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
RAZONAMIENTO BAYESIANO
Supone que
Las hipoacutetesis estaacuten gobernadas por una distribucioacuten de probabilidad
Es posible tomar decisiones oacuteptimas razonando con estas probabilidades y las observaciones
MEacuteTODOS BAYESIANOS
Algunos meacutetodos bayesianos se encuentran entre los maacutes eficientes
Permiten interpretar el funcionamiento de otros meacutetodos en teacuterminos probabiliacutesticos
Incluso cuando no son aplicables proporcionan un estaacutendar de toma de decisioacuten oacuteptima frente al que comparar otros meacutetodos
TEOREMA DE BAYES Dado un conjunto de entrenamiento D
maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable
TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h
Probabilidad de que h sea cierta despueacutes de observar D
P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h
P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten
P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica
HIPOacuteTESIS HMAP
Hipoacutetesis hMAP maacutexima posteriori
Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten
Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable
HIPOacuteTESIS HMAP
Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
MEacuteTODOS BAYESIANOS
Algunos meacutetodos bayesianos se encuentran entre los maacutes eficientes
Permiten interpretar el funcionamiento de otros meacutetodos en teacuterminos probabiliacutesticos
Incluso cuando no son aplicables proporcionan un estaacutendar de toma de decisioacuten oacuteptima frente al que comparar otros meacutetodos
TEOREMA DE BAYES Dado un conjunto de entrenamiento D
maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable
TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h
Probabilidad de que h sea cierta despueacutes de observar D
P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h
P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten
P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica
HIPOacuteTESIS HMAP
Hipoacutetesis hMAP maacutexima posteriori
Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten
Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable
HIPOacuteTESIS HMAP
Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
TEOREMA DE BAYES Dado un conjunto de entrenamiento D
maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable
TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h
Probabilidad de que h sea cierta despueacutes de observar D
P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h
P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten
P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica
HIPOacuteTESIS HMAP
Hipoacutetesis hMAP maacutexima posteriori
Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten
Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable
HIPOacuteTESIS HMAP
Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h
Probabilidad de que h sea cierta despueacutes de observar D
P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h
P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten
P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica
HIPOacuteTESIS HMAP
Hipoacutetesis hMAP maacutexima posteriori
Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten
Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable
HIPOacuteTESIS HMAP
Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
HIPOacuteTESIS HMAP
Hipoacutetesis hMAP maacutexima posteriori
Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten
Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable
HIPOacuteTESIS HMAP
Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
HIPOacuteTESIS HMAP
Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
1 Para cada hipoacutetesis calcular la probabilidad a posteriori
2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada
a clasificacioacuten maacutes simple Supone que todos los atributos son
independientes conocida la variable clase
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
CLASIFICADOR NAIumlVE BAYES
En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como
A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la
base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))
Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales
Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
VARIABLES NUMEacuteRICAS
P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
ALGORITMO NAIVEBAYES
Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj
Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de
la probabilidad P(aivj)
Clasificar instancia(x)devolver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
ESTIMACIOacuteN DE PROBABILIDADES
p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
CLASIFICACIOacuteN
064 022 033 033 033
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
DISCUSIOacuteN NAIVE BAYES
Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN
Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente
independientes Aplicaciones
DiagnosisClasificacioacuten de texto
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos
Desventajas Asumir que las variables tienen independencia condicional respecto a la
clase lleva a una falta de precisioacuten
En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios
1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc
Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias
Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
EJEMPLO
Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de
lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y
seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris
Setosa Versicolor virginica
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
volver
Top Related