[Guillermo Choque]

Primera parte

Estadística e incertidumbrte



La inteligencia artificial y la estadística constituyen áreas de la ciencia que se han desarrollado de manera independientemente, sin embargo, cuentan con muchos problemas que abordan en común. Según Triola, en el libro publicado el año 2009 bajo el titulo “Estadística”, el término estadística se deriva de la palabra latina status, que significa “estado”. Los primeros usos de la estadística implicaron la recopilación de datos y la elaboración de gráficas, para describir diversos aspectos de un estado o de un país. En el año 1662 John Graunt publicó información estadística acerca de los nacimientos y los decesos. Al trabajo de Graunt siguieron estudios de tasas de mortalidad y de enfermedad, tamaño de poblaciones, ingresos y tasas de desempleo. Los hogares, gobiernos y empresas se apoyan mucho en datos estadísticos para dirigir sus acciones. Por ejemplo, se reúnen datos de manera cuidadosa y con regularidad para establecer las tasas de desempleo, las tasas de inflación, los índices del consumidor y las tasas de nacimientos y muertes; en tanto que los líderes empresariales utilizan los datos resultantes para tomar decisiones que afectan futuras contrataciones, los niveles de producción y la expansión hacia nuevos mercados.

Los investigadores Sánchez y Valdés en relación al caso de la estadística como ciencia, en el libro publicado el año 2003 con el título “Kolmogorov. El zar del azar”, mencionan que aunque muchos historiadores la sitúan en los trabajos de Jacob Bernoulli, la estadística moderna tendría su desarrollo en el siglo veinte, los trabajos de Karl Pearson y Ronald Fisher, que sientan las bases de la inferencia junto al estudio teórico propiciado por probabilistas como Kolmogorov o Markov que ligado al boom informático permitirán el nacimiento de la mayoría de las técnicas modernas: La inferencia, el diseño de experimentos, la fiabilidad, el control de calidad, el análisis multivariante, la teoría de juegos, la investigación operativa o la minería de datos. Podría decirse que el siglo veinte ha sido el siglo de la estadística. La panorámica de la estadística como ciencia es muy distinta a su situación en el campo educativo, pues hoy nadie discute su gran importancia, ya no como rama del conocimiento científico sino su interrelación con otras ciencias, tales como la medicina, biología, ingeniería, economía y otras, donde se usa como parte del método de investigación científica y desde donde se desarrollaron muchos métodos estadísticos.

Téllez, en la tesis doctoral escrita el año 2012 titulada “Desarrollo de Sistemas Difusos Tipo 2 Paramétricos”, menciona que el mundo real es incierto, el constante cambio, el incesante caos y la aterradora duda pueden llevar a las personas a tomar decisiones equivocadas. La vida es un sistema colmado de muchas de estas percepciones subjetivas. En todos los sistemas físicos, también se encuentran estas percepciones y los investigadores intentan convertir a las personas en inmunes a ellas utilizando herramientas que permitan predecir, planear, modelar y reaccionar a cualquiera de ellas oportunamente. En la predicción de fenómenos naturales tales como las tormentas, huracanes, heladas, por ejemplo, las variables físicas y los modelos matemáticos muchas veces no son suficientes para determinar un estado climático específico, debido a que existe mucha información del fenómeno que se desconoce. Ese desconocimiento provoca en las personas incertidumbre. La incertidumbre se encuentra en todos los aspectos de la vida, desde la percepción de la naturaleza hasta la vida social del ser humano, tal como la comunicación humana. De esta manera es como las personas se han valido de los sistemas computacionales para reducir o eliminar esa incertidumbre.

El considerado padre de la lógica difusa Lotfi Zadeh, en el artículo escrito el año 1965 con el título “Conjuntos difusos”, menciona que, los sistemas lógico difusos fueron creados para cuantificar la incertidumbre, ambigüedades e imprecisiones que caracterizan a las palabras o expresiones lingüísticas que utilizan a diario las personas para comunicarse. Para esto, Zadeh propuso una teoría de conjuntos que fuera capaz de representar expresiones lingüísticas y las relaciones entre ellas y de esta manera la llamó lógica difusa. En su obra, Zadeh presenta una teoría de conjuntos difusos caracterizado por formas convexas llamadas “funciones de pertenencia”, con las que se puede cuantificar una idea en relación a una expresión lingüística, intrínsecamente incierta, lo cual puede llevarse a varios niveles de entropía. Dependiendo el nivel de entropía se caracteriza el tipo de sistema y los conjuntos que lo componen, se tienen una representación y procesamiento específico. Posteriormente, Zadeh, en el artículo escrito el año 1975 titulado “El concepto de una variable lingüística y su aplicación al razonamiento aproximado”, sentó las bases para que la “computación con palabras”, tuviera cabida en los sistemas computacionales al usar la lógica difusa como una herramienta para cuantificar y clasificar las palabras. El centro de su investigación fue modelar las palabras mediante sistemas difusos debido a que las palabras pueden significar cosas diferentes para personas diferentes, lo cual puede generar incertidumbre en un sistema computacional. La relación que existe entre la computación con palabras y la estadística difusa es una de sus principales contribuciones.

 
Revistas
Publicidad
Portada de HOY

JPG (299 Kb)


Publicidad

Sociales

NUEVO ESPACIO TECNOLÓGICO TIGO EN EL ALTO

Mónica Salas, Marina Farrachol, Alex Bohrt, Vanina Rivero, Verónica Valdivia y Pablo Aparicio.


Cotizaciones
1 Dólar:6.96 Bs.
1 Euro:7.83 Bs.
1 UFV:2.02716 Bs.

Impunidad