Cuando la IA no esclavizó a la humanidad.

 Inteligencia Artificial o su abreviación IA es un término que escuchamos por todos lados, diariamente 

interactuamos con varias IA, en redes sociales, en chatbots, incluso en lavadoras, pero que es la IA.


En esta ocasión quiero comentarles un poco sobre qué es la IA, su historia, sus aplicaciones y 

desmitificar esta tecnología. Pero antes tenemos que hablar un poco de que es el aprendizaje 

máquina o ML (Machine Learning), los sistemas expertos, las redes neuronales y el teorema del 

“no free lunch”.


Empecemos con el aprendizaje máquina, también llamado aprendizaje automático, como su 

nombre lo dice es la capacidad de una máquina para aprender,  esto se puede lograr con una 

variedad de diferentes algoritmos, los más conocidos son el descenso por gradiente y los métodos 

evolutivos, su diseño e  implementación requieren un buen manejo del álgebra lineal y el cálculo, 

pero su funcionamiento puede conceptualizarse como el ajuste  de una perilla, imaginemos una 

radio con estática donde queremos sintonizar una estación la cual no conocemos, primero 

movemos un poco la perilla y escuchamos que la estática disminuye, continuamos girando la 

perilla hasta que escuchamos la música sin estática, pero nos pasamos, entonces retrocedemos 

lentamente, repetimos este proceso hasta encontrar la señal lo más clara posible. imaginemos 

ahora a la red neuronal con una, cinco, diez o un millón de perillas, hacer este ajuste a mano no 

solo es impráctico, es imposible debido a la cantidad de perillas, pero una computadora lo puede 

hacer en una fracción del tiempo, aunque esa fracción del tiempo pueden ser tres semanas de 

procesamiento continuo en los casos más complejos.


Continuemos con los sistemas expertos, los más conocidos y utilizados son los sistemas difusos 

(Fuzzy systems), es el tipo de sistema que encontramos en ciertas arroceras y lavadoras, los 

sistemas expertos  buscan integrar reglas (heurísticas)  para resolver un problema, estas reglas 

son diseñadas por expertos en el área en la que se desea implementar el sistema, la implementación 

de estos sistemas es más complicada pero este concepto nos basta para entender su función 

principal.


Ahora las redes neuronales, o más propiamente las redes neuronales artificiales, estos son algoritmos 

inspirados en el funcionamiento de las neuronas reales, lo interesante es que estos modelos 

originalmente fueron pensados para simular el funcionamiento del cerebro demostraron ser capaces 

de realizar cómputo, cabe aclarar que las redes neuronales son muy buenas para resolver 

problemas complejos de modelar, pero muy malas en problemas que requieren cálculo, además 

de que actualmente sabemos que las neuronas reales son mucho más complejas que cualquier 

neurona artificial, aunque suene como magia oscura la realidad es que una neurona artificial es 

una sumatoria y un umbral, una red neuronal profunda puede tener miles o cientos de miles de 

estas neuronas.


Finalmente el teorema del “no free lunch”, este teorema básicamente dice que un sistema diseñado 

para un problema en específico no puede resolver todos los demás,  esto es que si diseñas un 

sistema que utilice IA para resolver un problema, va a ser muy bueno solo para ese problema.


Espero no los haya dormido con todo lo anterior, ahora sí con los conceptos claros vamos a ver la 

historia de la IA y su alcance en la vida diaria. 


Ahora una breve historia sobre la IA, a través de las décadas el concepto de la inteligencia artificial 

se ha definido como una máquina capaz de realizar tareas imitan el proceso del pensamiento 

humano, muchos consideran que Alan Turing fue el primero en proponer la idea de la IA ya que él 

pensaba que sería más fácil darle a una máquina la capacidad de aprender que programar un 

problema complejo que incluso a los humanos nos cuesta entender, posteriormente se desarrollaron 

programas que podían desafiar a un humano en ajedrez, chatbots , etc… Uno de estos modelos 

era la neurona de McCulloch-Pitts, este modelo sencillo era capaz de resolver una gran variedad 

de problemas con solo ajustar unos valores en la ecuación que lo describe, en esos años habían 

varios grupos probando diferentes modelos, el Dr. Marvin Minsky del M.I.T. Escribió un libro 

actualmente muy infame para desprestigiar a las neuronas artificiales, este libro causó lo que 

llaman el primer invierno de las redes neuronales, durante 10 años la investigación en el área fue 

abandonada, durante este tiempo surgieron los sistemas difusos, los cuales demostraron ser 

capaces de resolver una gran variedad de problemas, incluso capaces de aterrizar aviones, a 

pesar de todo esto los sistemas difusos tienen limitaciones muy claras. 


A finales de los 80’s se implementaron los métodos de descenso por gradiente que les dieron la 

capacidad de aprender a las redes neuronales, esto fue el gran logro que las sacó el área del 

congelador, se pensaba que las redes neuronales podían resolver cualquier problema con la 

capacidad de cómputo adecuada, cuando a mediados de los 90’s llegó el segundo invierno de 

las redes neuronales, ya que en teoría una red neuronal podía resolver cualquier problema de 

clasificación (detectar rostros, reconocer objetos, etc…), en la práctica se volvía complicado 

implementarlas, hacía falta un experto que supiera con qué alimentar la red, lo cual se volvió un 

problema cuando no hay problemas que no tienen una solución conocida, en estos años nuevos 

sistemas difusos más adaptables tuvieron su auge.


Finalmente en los años llegamos al año 2011, este año fue el gran resurgimiento de las redes 

neuronales y el principio del boom en la industria de la IA, los modelos de redes profundas y redes 

convolucionales que son capaces de generalizar mucho mejor, cuyo limitante hasta el momento 

era el poder de cómputo empezaron a florecer, el gran acceso a los datos y el gran número de 

empresas que empezaron a enfocarse en la IA nos trae al día de hoy.


Actualmente podemos hablar más claramente de los riesgos y limitaciones de la IA, la principal 

limitación de las redes neuronales profundas es que hacen falta cantidades muy grandes de datos 

revisados y etiquetados para poder entrenar estos modelos, el segundo problema es que se está 

llegando al límite de lo que estos modelos pueden resolver, esto en el área de la investigación, en el 

mercado todavía hay mucho campo que abarcar con el poder que tienen y por último están las 

regulaciones.

Como cualquier tecnología las redes  neuronales no son buenas ni malas, todo depende del uso 

que se les de, en Europa hubo un par de  casos muy sonados que involucraron IA para la toma 

de decisiones, una en cuanto a créditos bancarios y otra en un sistema de reclutamiento, errores 

en el diseño de estos sistemas y la falta de comprensión de su funcionamiento por parte del 

usuario resultaron en la discriminación de personas por su edad y género, para evitar que esto 

sucediera nuevamente la Unión Europea comenzó a regular qué es lo que se puede y no hacer 

con estos sistemas, en Estados Unidos una legislación similar se ha retrasado debido a la presión 

de varias empresas y en México se está empezando a plantear una, tampoco hay que olvidar 

el “no free lunch”, actualmente no existen sistemas inteligentes que puedan resolver varios 

problemas de manera eficiente, el enfoque es a resolver un problema específico, con esto en 

mente podemos ver la razón por que la IA no nos va a esclavizar, de hecho puede que todo lo 

contrario pero ese será un tema para otra ocasión.



Quiero agradecer a los lectores y comentarles que si hay algún tema del que gustaría que 

escribiera me pueden contactar en el siguiente código QR.

Comentarios

Entradas populares