AI :: Decisión

Aprende automáticamente árboles de decisión
Descargar ahora

AI :: Decisión Clasificación y resumen

Anuncio publicitario

  • Rating:
  • Licencia:
  • Perl Artistic License
  • Precio:
  • FREE
  • Nombre del editor:
  • Ken Williams
  • Sitio web del editor:
  • http://search.cpan.org/~kwilliams/Module-Build-0.2808/lib/Module/Build/Compat.pm

AI :: Decisión Etiquetas


AI :: Decisión Descripción

Aprende automáticamente los árboles de decisión. AI :: Decisión es el módulo PERL para aprender automáticamente los árboles de decisión.Synopsis Use AI :: Decisión; My $ DTREE = NEW AI :: Decisión; # Un conjunto de datos de capacitación para decidir si jugar tenis $ dtree-> add_instancia (atributos => {Outlook => 'Sunny', Temperatura => 'Hot', Humedad => 'alto'}, resultado => 'no' ) $ DTREE-> Add_Instance (atributos => {Outlook => 'nublado', temperatura => 'caliente', humedad => 'normal'}, resultado => 'sí'); ... Repita para varios casos más, entonces: $ dtree-> tren; # Encuentra los resultados para insistencias My $ Result = $ DTREE-> get_result (atributos => {Outlook => 'Sunny', Temperatura => 'caliente', Humedad => 'Normal'}); Módulo AI :: Decisión automáticamente crea los llamados "árboles de decisión" para explicar un conjunto de datos de capacitación. Un árbol de decisiones es un tipo de categorizador que utiliza un proceso similar a un diagrama de flujo para clasificar nuevas instancias. Por ejemplo, un árbol de decisión aprendido podría parecer lo siguiente, que clasifica para el concepto "Jugar tenis": Outlook / | / | / | Soleado / nublado lluvioso / | Humedad | Viento / * No * / / / alto / normal / / fuerte / débil * No * * Sí * / * No * * Sí * (Este ejemplo, y la inspiración para el módulo AI :: Decisión, viene directamente de la excelente Tom Mitchell Libro "Aprendizaje de la máquina", disponible de McGraw Hill.) Un árbol de decisiones como este se puede aprender de los datos de capacitación y luego se aplica a los datos previamente invisibles para obtener resultados consistentes con los datos de capacitación. El objetivo habitual de un árbol de decisión Es de alguna manera encapsular los datos de entrenamiento en el árbol más pequeño posible. Esto está motivado por una filosofía de "Razor" de Occam, en la que se debe preferir la explicación más simple posible para un conjunto de fenómenos sobre otras explicaciones. Además, los árboles pequeños tomarán decisiones más rápido que los árboles grandes, y son mucho más fáciles de que un humano se vea y entienda. Una de las razones más importantes para usar un árbol de decisiones en lugar de muchas otras técnicas de aprendizaje de la máquina es que un árbol de decisión es un tomador de decisiones mucho más sectable que, por ejemplo, una red neuronal. La implementación actual de este módulo utiliza un método extremadamente simple para la creación El árbol de decisión basado en las instancias de formación. Utiliza una métrica de ganancia de información (basada en la reducción esperada en la entropía) para seleccionar el atributo "más informativo" en cada nodo en el árbol. Este es esencialmente el algoritmo ID3, desarrollado por JR Quinlan en 1986. La idea es que el atributo con la mayor ganancia de información (probablemente) será el mejor atributo para dividir el árbol en cada punto si estamos interesados ​​en hacer pequeños árboles. . Requisitos: · Perl


AI :: Decisión Software relacionado