
Cuando hablamos de inteligencia artificial, nos encontramos con un concepto que ha ido variando a lo largo del tiempo. Hace 50 años, trabajar en inteligencia artificial quería decir escribir programas de cómputo orientados a los juegos de mesa de estrategia y al ajedrez, o bien, escribir programas para calcular derivadas simbólicas de funciones.
En aquella época, eso era muy difícil para una computadora; poco a poco, tal dificultad se fue resolviendo con programación más compleja. Sin embargo, a lo que realmente nos referimos ahora con la expresión “inteligencia artificial” implica resolver problemas que son sencillos para los humanos y difíciles para una computadora; sencillos en el sentido de que no es indispensable pensar para resolverlos. Los procesos mentales que desarrollamos para llevar a cabo estas acciones son subconscientes y, además, enormemente paralelos y rápidos.
Lo que nadie sabe plenamente, hasta ahora, es cómo el cerebro humano es capaz de reconocer un rostro o un lenguaje; cómo puede encontrar un objeto en particular o uno similar entre miles de imágenes. Por ejemplo, una taza, que puede tener miles de formas diferentes: las hay cilíndricas, cuadradas o hexagonales, con asas grandes o pequeñas. Sin embargo, el cerebro humano reconoce figuras de manera prácticamente instantánea.
En inteligencia artificial, lo que tratamos de hacer es crear programas de cómputo sin reglas para explicar detalladamente cómo hay que hacer las cosas. El programa, en otras palabras, lleva a la computadora de la mano y la deja aprender, como un niño aprende en la escuela. Si yo quiero enseñar a un niño los diferentes animales que existen, tomo un libro de imágenes y le empiezo a mostrar sus formas. Después de haber leído dos o tres libros, un niño ya conoce una cantidad enorme de animales. Se trata de hacer algo así con las computadoras: darles ejemplos de lo que intentamos obtener, más que reglas; entonces, la computadora misma debe tratar de sintetizar esa información y aprenderla. Por eso, en inteligencia artificial, siempre se habla, en primer lugar, de aprendizaje: el objetivo es que la computadora aprenda a hacer las cosas y no que el programador deje todo completamente establecido.
Una variante de lo anterior consiste en que la computadora trate de sintetizar reglas: después de haberle presentado ejemplos de aparatos telefónicos, la computadora genera reglas apropiadas. Por ejemplo: un teléfono es un aparato con un auricular, tal vez un panel para oprimir los números (con, por lo menos, los diez dígitos), un cable para conectarse a la red telefónica, etcétera.
Lo más usado en el área de reconocimiento de patrones es: la representación de imágenes y el tratar de extraer características visuales que no son partes completas de ellas, sino subpartes de éstas. Hablando de dígitos, pongamos un ejemplo: cuando trato de reconocerlos, encuentro que puede haber líneas horizontales en el siete; puede haber líneas verticales, como en el uno; puede haber círculos —grandes en un cero y más pequeños en un ocho— etcétera.
Las pequeñas partes en una imagen son lo que se llama en inglés “sus features”, o sea aquella fracción que sirve para reconocer la imagen. Lo que hace la computadora es, por un lado, encontrar estos elementos primitivos de lo que constituye una imagen, y después, ver cuál es la relación estadística de uno con respecto del otro. Decimos relación estadística, en el sentido de que tal vez una línea vertical va asociada, en 50% de los casos, con una línea horizontal y es un siete, pero el otro 50% de los casos, tal vez pueda ser asociado con una línea horizontal baja y, en tal caso, se trata de un uno. Justa-
mente, ese tipo de relaciones estadísticas es lo que debe tratar de extraer la computadora en un juego de estira y afloja, en el que, por un lado, la máquina trata de extraer lo fundamental de la imagen —las características importantes o features— y, por el otro, trata de determinar qué tan relevantes son para ponerlas en correspondencia.

En inteligencia artificial existe también un área denominada sistemas expertos que históricamente ha tenido dos fases muy claras. La primera corresponde a la aparición de las computadoras a partir de los años cincuentas, cuando se creía que todo el comportamiento y todas las capacidades cognitivas de los humanos se podían plasmar en reglas, como las que utilizamos para jugar ajedrez.
El siguiente es un ejemplo típico: tenemos un tablero y un movimiento que se puede hacer con una pieza. Hay reglas claras para mover cada una de las piezas y también sobre la respuesta que puede dar el contrario. En este juego, lo que se va formando es un árbol de decisión, en el que uno toma una vía para ganar el juego, mientras que el contrario tiene 20 opciones subsecuentes a nuestro movimiento. Todas esas opciones se pueden analizar de antemano en una computadora; incluso, puedo analizar un millón de opciones distintas y escoger la mejor en cuanto a mis intereses.
Al principio de todo este desarrollo, cuando aparecieron las computadoras, se pensaba, un poco de manera ingenua, que toda la cognición humana se podía reducir a una suma de reglas; sólo había que encontrar las adecuadas, por así decirlo: si esto pasa haz esto otro.
Con el paso del tiempo, a pesar de que hubo avances y logros importantes, muchos investigadores se dieron cuenta de que funciones humanas, como la intuición humana y el reconocimiento —sobre todo el visual—, no eran tan fáciles de implementar en una computadora, puesto que no tenemos la capacidad de introspección dentro de nuestro cerebro para conocer y entender qué reglas se están utilizando. Si el cerebro fuera una computadora, tendríamos que leer su programa, pero como éste no existe, sino que es un proceso distribuido, analógico y con muchas características complicadas, entonces, la idea de que se podía escribir todas las reglas para describir procesos cognitivos fue perdiendo popularidad. En contraste, fue ganando terreno el enfoque estadístico o subsimbólico.
Para entender lo anterior, consideremos que, a diferencia del enfoque subsimbólico, dentro del enfoque simbólico el objetivo consiste en definir símbolos y expresar todo mediante reglas entre símbolos. Por lo contrario, en el enfoque subsimbólico se trata de extraer partes elementales de los símbolos —de la señal de audio, de la imagen…— y encontrar relaciones estadísticas entre ellos.
Podemos considerar que es en los años setentas cuando creció la influencia de la estadística en la inteligencia artificial, la robótica y la automatización.
Hasta entonces, una computadora era un objeto gigantesco que se colocaba en un cuarto de cómputo con clima artificial. Los problemas que se podía resolver con una computadora se limitaban a correr la nómina de una empresa, mantener un registro de empleados o, tal vez, hacer el cálculo estructural de un edificio. A medida que las computadoras se fueron abaratando, entraron en los hogares y ahora todo el mundo trae una en el bolsillo o, incluso, en la muñeca, con diferentes tipos de datos. Por esa razón, el tipo de aplicaciones que han surgido para esos dispositivos móviles es muy variado y mucho más interesante respecto de lo que se hacía antes. Ahora, una cámara digital toma fotografías, las procesa dentro de un teléfono celular y obtiene una mejor imagen, o bien, combina muchas tomas en una sola imagen final.
Puedo organizar mis datos en la computadora y ésta puede empezar a encontrar regularidades y hacer la detección de caras dentro de las fotografías.
Es probable que, en el futuro, los teclados desaparezcan, porque es más fácil dictarle a la computadora que estar tecleando. Esto implicaría perfeccionar y expandir el uso de procesos de reconocimiento del lenguaje hablado. El auge de este tipo de procedimientos estadísticos y de reconocimiento de patrones tiene que ver con la presencia de computadoras ya prácticamente en todos los ámbitos de la vida diaria.

Otro ejemplo: los primeros sistemas de navegación comerciales que había para automóviles eran poco satisfactorios. Se podía saber que el vehículo circulaba sobre una carretera en particular, pero, con un error de 100 o 200 metros. Si recibíamos una indicación para tomar la “salida siguiente”, resultaba que estaba 50 metros más atrás. Ahora, a pesar de que los satélites utilizados para ubicar los vehículos siguen siendo los mismos, ya tenemos una precisión tal que, si hay que salir a la derecha dentro de 15 metros, es porque efectivamente ahí está la esquina donde hay que tomar la siguiente calle…, y todo ha sido procesamiento matemático, no modificación del hardware: se debe al tipo de algoritmos utilizados para convertir un muestreo estadístico en una ubicación.
En resumen, se podría decir que la estadística y el llamado aprendizaje por computadora juegan cada día un papel más importante en la vida diaria, en la medida en que nuestra vida se convierte en procesamiento de datos. El celular en la bolsa nos da acceso al mundo de los datos, ya sea para ordenar un libro o para pagar un café. Es lo que se llama el mundo del Big Data —que ahora requiere Big Statistics—.
Es reconocido mundialmente por su trabajo en redes neuronales artificiales e inteligencia artificial y por su trabajo en el desarrollo de vehículos autónomos. Estudió licenciatura y maestría en Matemáticas, en la Escuela Superior de Física y Matemáticas del Instituto Politécnico Nacional; y obtuvo el doctorado en Economía, en la Universidad Libre de Berlín, Alemania, donde además obtuvo la Habilitación (máximo grado académico en Alemania) en Ciencias de la Computación. Actualmente, es profesor de matemáticas e informática, en la Universidad Libre de Berlín, Alemania. Es, además, Premio Nacional de Ciencia y Tecnología 2015, en el rubro de Tecnología, Innovación y Diseño.