CONCENTRAMOS NUESTRO TRABAJO EN AUMENTAR LAS UTILIDADES DE LAS EMPRESA AHORRANDO EN LA ELIMINACIÓN DE COSTOS OCULTOS DE LA ORGANIZACIÓN.

NOS CONCENTRAMOS EN ACOMPAÑAR A LOS EMPRESARIOS EN GENERAR AHORROS EN SUS PROCESOS DE GESTIÓN SIN RESENTIR LA EFICIENCIA.

SIMPLIFICAMOS LAS FUNCIONES Y AYUDAMOS A PLANIFICAR LA OPERACIÓN DE LA EMPRESA.

INTELIGENCIA ARTIFICIAL PARA PYMES (2/3)

+ PRODUCTIVIDAD  + EFICIENCIA
Enfoquemos  los  proyectos  al  mejoramiento  de  la Productividad  para  aumentar  nuestra participación con más eficiencia en los negocios


"Los empresarios que tengan que definir una inversión deberán decidir entre: invertir en una máquina  de  producción o invertir en programas de inteligencia artificial que les asegure el  ingreso a la Cuarta Revolución Industrial, la nueva era de los negocios."

3  - Los ejes de estudio sobre los que se trabajó.
DEFINICIONES DE INTELIGENCIA ARTIFICIAL
 Rich & Knight [1994], Stuart [1996], definen en forma general la I.A. como "la capacidad que tienen las máquinas para realizar tareas que en el momento son realizadas por seres humanos"; otros autores como Nebendah [1988], Delgado [1998], arrojan definiciones más completas y las definen como el "campo de estudio que se enfoca en la explicación y emulación de la conducta inteligente en función de proceso computacionales basadas en la experiencia y el conocimiento continuo del ambiente".
Dicho en otras palabras, es la capacidad de comprender los problemas y situaciones que se le plantean, realizar análisis de situación emulando la mente humana, memorizar y proponer u ordenar acciones orientadas a resolver las etapas en consideración.
Básicamente lo que se pretende de la inteligencia artificial es crear una maquina o un programa secuencial que repita indefinidamente un conjunto de instrucciones generadas por un ser humano o por la misma máquina/programa.
LAS INVESTIGACIONES Y DESARROLLOS SOBRE I.A.
SE DESLIZARON SOBRE TRES EJES
* REDES NEURONALES
* SISTEMAS DE LÓGICA DIFUSA
* ALGORÍTMOS GENÉTICOS

REDES  NEURONALES

Recordemos  que el cerebro humano se compone de billones de neuronas interconectadas entre sí formando circuitos o redes que desarrollan funciones específicas.
Una neurona típica recoge señales procedentes de otras neuronas o diferentes ingresos a través de unas  estructuras llamadas dendritas.
La neurona emite impulsos de actividad eléctrica a lo largo de una fina y delgada capa de conectores denominados axones.  Las extremidades de estas ramificaciones llegan hasta las dendritas de otras neuronas y establecen conexiones llamada sinapsis, que transforma el impulso eléctrico en un mensaje neuroquímico mediante liberación de unas sustancias llamadas neurotransmisor que excitan o inhiben, a otras neuronas.
De esta manera la información se transmite de unas neuronas a otras y va siendo procesada a través de las conexiones sinápticas concluyendo en una información de salida que genera las acciones esperadas
Las redes neuronales tienen como estructura varias capas:
Primera capa como buffer de entrada, almacenando la información bruta suministrada en la red ó realizando un sencillo preproceso de la misma, la llamamos capa de entrada.
Otra capa actúa como interfaz o buffer de salida que almacena la respuesta de la red para que pueda ser leída, la llamamos capa de salida.
Y las capas intermedias, principales encargadas de extraer, procesar y memorizar la información, las denominan capa oculta.




Sistemas de lógica difusa
Los sistemas de lógica difusa también llamada lógica borrosa es la segunda herramienta que permite emular el razonamiento humano. Este tipo de lógica toma dos valores aleatorios, pero contextualizados y referidos entre sí.  Así, por ejemplo, una persona que mida dos metros es claramente una persona alta, si previamente se ha tomado el valor de persona baja y se ha establecido en un metro. Ambos valores están contextualizados a personas y referidos a una medida métrica lineal.
 Los seres humanos pensamos y razonamos por medio de palabras y en grados entre dos estados, por ejemplo blanco y negro, frío y caliente, etc. Estos sistemas de lógica difusa se diferencian de los sistemas expertos tradicionales que interpretan valores concretos y absolutos. Los sistemas de lógica difusa permiten utilizar el lenguaje humano tal como nosotros razonamos y nos expresamos.
Los sistemas expertos son de aplicación informática que adopta decisiones o resuelve problemas de un determinado campo, como los sistemas de producción, las finanzas o  medicina, utilizando los conocimientos y las reglas analíticas definidas por los expertos en dicho campo. Los expertos solucionan los problemas utilizando una combinación de conocimientos basados en hechos y datos concretos y en su capacidad de razonamiento



Algoritmos Genéticos
Tanto en matemática como en ciencias de la comunicación y disciplinas relacionadas, un algoritmo es una secuencia bien definida, ordenada y finita de operaciones que permiten hallar la solución a un  determinado problema.
Partiendo de un estado inicial (entrada) y a través  de pasos sucesivos se puede llegar a resultados finales exitosos. Su importancia radica en mostrar la forma de llevar a cabo el proceso con el fin de resolver problemas matemáticos o de otro tipo.
Un algoritmo para ser considerado como tal, debe ser una secuencia ordenada, finita y definida de instrucciones.
Así de este modo es posible seguir y predecir el comportamiento de un algoritmo en particular desde una entrada posible y, a partir de ahí, siguiendo las secuencias de instrucciones ordenadas y definidas sin dar  lugar a ambigüedades, por lo que solo puede seguirse el camino pautado del principio al fin.
Si hacemos una analogía con los algoritmos genéticos darwinianos asimilados al U.C.C.M (unidad cerebro, cuerpo, mente)  encontramos: algoritmos cortos, menos precisos y de menor consumo de energía y algoritmos largos, más precisos y con mayor consumo de energía.
Los algoritmos de camino corto, complejo CR+CM (camino reptiliano + camino mamífero)  solo utiliza el 5% de la información entrante para comenzar a actuar.
Los algoritmos de camino largo, complejo CR+CM+LPF (low pass filter) utilizan el 100% de la información entrante, son más lentos pero sustancialmente más precisos.

En nuestra vida cotidiana fuimos incorporando algoritmos de diversos tipos y funciones, desde el algoritmo que nos permite ejecutar una multiplicación  entre dos números, ejecutar música, conducir un vehículo, etc.

El algoritmo nos da la resolución genérica a un problema y lo podemos emplear todas las veces que se nos presenta ese problema, por ejemplo, el algoritmo de la división podemos emplearlo cualquiera sean los números con los que tengamos que operar. No necesitamos entender cómo funciona ese algoritmo porque sigue las instrucciones preestablecidas  y codificadas inicialmente. 

4 - Test que definen los programas de I.A.
"Una computadora puede ser llamada "inteligente" si logra engañar a una persona haciéndole creer que es un humano"  Esta frase la pronunció el matemático inglés Alan Turing quien fue llamado el padre de la Inteligencia Artificial.
Ante el avance de las investigaciones y desarrollos de los programas informáticos (1950), Alan Turing  se ocupó de diseñar un test que definiera que comportamiento tenía que tener una computadora para considerar que se desempeñaba con Inteligencia Artificial.
El Test de Turing nace como un método para determinar si una máquina puede pensar. Su desarrollo se basa en el juego de imitación.
La propuesta contaba con la participación de tres personas: un hombre, una mujer y un interrogador que se comunica con ellos solo escribiendo en un lenguaje entendible para los tres y no ve ni es visto por los otros dos participantes.
La experiencia consiste en que el interrogador debía descubrir quien era la mujer y quien el hombre, mientras que los interrogados trataban de convencer al interrogador que ambos eran mujeres.
El siguiente paso consistía en reemplazar a uno de los dos participantes anónimos por una computadora cargada con un programa de I.A. y, el interrogador no debía advertir la presencia de la máquina, suponiendo que continuaba comunicándose con dos humanos.
También se implementaron otras variantes reemplazando el hombre o la mujer en diferentes pruebas,  pero el objetivo de esta experiencia consistía en definir que la máquina funcionaba con I.A. cuando el interrogador no lograba reconocer quien era mujer, quien era hombre o quién era máquina.
 
Inmediatamente aparecieron críticas al T.T. con diferentes razonamientos pero, fundamentalmente, llegaban desde quienes no podían aceptar la idea de que una máquina se comportase como una persona  al punto de poder engañar a un interrogador humano.
Una de las objeciones contemplaba la "falta de conciencia" de la máquina, tanto de sí mismo como de los demás y generar sentimientos positivos o negativos sobre la información  que contiene o las acciones que realiza.
A este comportamiento se lo denomina Solipsismo que indica que la única manera de saber si una máquina piensa es ser esa misma máquina. El problema es que, la única manera de saber si otro humano piensa es ser ese otro humano, lo que se conoce como el problema de las otras mentes.
Posteriormente se perfeccionó el T.T. transformándolo en el Test de Turing Total T.T.T. y más tarde  se incorporaron nuevos test de evaluación.
Augusta Ada Byron King nació un 18 de diciembre de 1815 en Inglaterra y en 1838 se convirtió  en Condesa de Lovelace.
En 1833, tan solo a sus 17 años fue presentada a Charles Babbage, matemático y científico inglés quien tuvo la primera idea de concepción de un ordenador, ya que la Máquina Analítica que construyó funcionaba con los mismos principios de los ordenadores actuales.
En 1843 Lady Lovelace describió y analizó la Máquina Analítica incluyendo las demostraciones de cómo calcular funciones trigonométricas con variables, y el primer programa con instrucciones que hizo funcionar la máquina de cálculo y se la reconoce como la primera programadora de la historia.
En honor a Ada Lovelace y su prestigioso aporte a la informática, se denominó Lovelace 2.0  al test que para aceptar que una máquina funciona con Inteligencia Artificial propone verificar si la máquina en cuestión es capaz de escribir una historia de ficción, crear un poema o elaborar una pintura.
Por el momento ninguna máquina ha sido capaz de superar el test de Lovelace 2.0 
www.progresa-pga.com.ar
Eduardo Bronzino
pgas@pgas.com.ar