Inteligencia artificial: ¿cómo piensan las máquinas?

Esta colaboración es la segunda entrega de una serie de textos relacionados con la llamada cuarta revolución industrial (revolución 4.0) que atraviesa la sociedad moderna (inteligencia artificial, internet de las cosas, smart cities, impresión 3D, machine learning, data mining, entre otros). El objetivo es explicar y ofrecer reflexiones sobre sus  posibles implicaciones en un amplio abanico de ámbitos de la sociedad, tales como la economía, el derecho, las telecomunicaciones, la ética y la educación. 

“La pregunta de si una computadora puede pensar
no es más interesante que la pregunta de si un submarino puede nadar”.

—Edsger Dijkstra, científico de la computación.

El concepto de inteligencia artificial (I.A.) y los intentos por crear un ente capaz de asemejar o superar la capacidad de razonamiento humano no son nada nuevos. Los primeros desarrollos de algoritmos capaces de resolver problemas datan de los años cuarenta, y fue en 1950 cuando el matemático inglés Alan Turing, considerado uno de los padres de la computación e informática moderna, planteó en su artículo Computing Machinery and Intelligence una prueba para determinar si una máquina era inteligente o no. ¿Pueden pensar las máquinas?, es la pregunta que Turing planteó y posteriormente se le reconoció como la “prueba de Turing”.

Turing diseñó la prueba basado en un juego de imitación,de tal forma que el objetivo era comprobar la habilidad de una máquina para exhibir un comportamiento inteligente indistinguible del de un humano. Así pues, una persona jugando el papel de evaluador sin posibilidad de observar o escuchar a sus interlocutores,mantiene comunicación escrita con otra persona y con una computadora programada para imitar el lenguaje humano.Si el evaluador no lograba distinguir entre el humano y la máquina, ésta  habría superado la prueba.[1]

Si bien la prueba no prosperó como una aplicación práctica, las discusiones y planteamientos teóricos generados a partir dela misma han sido numerosos y todavía hoy nos da pie a diversas preguntas: ¿debemos entender a la I.A. como una imitación del comportamiento humano o como el resultado de una serie de cálculos matemáticos?,¿cuál es el proceso que sigue para tomar una decisión?, ¿puede una máquina distinguir entre el bien y el mal? En la medida que la tecnología continúa avanzando, estas reflexiones se vuelven cada vez más profundas.

Cuando los datos sustituyen a los expertos

Los primeros desarrollos de I.A. estaban basados en programación determinista, es decir, a través de una serie de instrucciones condicionales que representaban el conocimiento de los expertos en una determinada materia; si sucede determinado evento, entonces realiza determinada acción (en lenguaje de programación: if,then, else…). Sin embargo, este tipo de programación está limitado por la rigidez de una estructura con entradas y salidas definidas y acotado a un proceso de decisiones también previamente definido y programado. Lo anterior implica que cualquier elemento que no haya sido considerado durante la escritura del código, no sería procesado y/o generaría un error en el programa.

El enfoque anterior resulta limitado cuando se trata de abordar escenarios complejos, como la decisión que un vehículo autónomo debe tomar ante la presencia de obstáculos indeterminados e incluso compartiendo el entorno con seres vivos que se están moviendo constantemente. Escribir en el código del algoritmo la infinidad de posibilidades y variables a las que se enfrentaría un auto en la realidad es una tarea prácticamente imposible y a veces con serias implicaciones éticas. Respecto a este último, consideremos por ejemplo el dilema en el que, debido a un evento inesperado, un vehículo autónomo solamente tiene dos opciones: i) atropellar a varios peatones o, ii) colisionar el vehículo con riesgo de que el pasajero resulte seriamente afectado. ¿Debería preestablecerse técnica y normativamente una alternativa?[2].

Ante la limitación de modelar escenarios complejos del mundo real a través de lenguaje “if, then, else”, surgió una categoría de la I.A que se enfoca en el desarrollo de sistemas que aprenden a partir de la información recabada: Machine Learning. En lugar de indicar explícitamente cómo resolver un problema, un enfoque de Machine Learning puede crear soluciones aprendiendo de ejemplos y tomando decisiones mediante predicciones basadas en el uso de métodos de inferencia lógica y estadística[3].

En la historia The Last Question, Issac Asimov plantea en el año 2061 una computadora dotada de I.A. conocida como Multivac cuya tarea es ayudar a la humanidad a resolver los problemas que enfrenta para su desarrollo, como el uso de la energía solar en viajes espaciales. Multivaces cuestionada sobre si algún día la humanidad podrá revertir la entropía del universo y con ello su inevitable final. Ante tal cuestionamiento la computadora responde: “Datos insuficientes para una respuesta esclarecedora”. Al igual que en esta historia, los actuales desarrollos de I.A. dependen en gran medida de la información con la que son alimentados; los datos son la base.

Gracias a los avances tecnológicos, Internet de las Cosas (IoT por sus siglas en inglés) que promete conectar prácticamente cualquier objeto y generar grandes cantidades de información,  así como el desarrollo de procesadores de cómputo cada vez más poderosos capaces de realizar una gran cantidad de tareas modeladas a través de algoritmos, el campo de I.A avanza rápidamente y han podido llevarse a la práctica la construcción de sistemas de I.A. no deterministas y hasta cierto punto, impredecibles.

Un ejemplo de I.A. desarrollada a partir de grandes volúmenes de datos lo encontramos en las redes neuronales artificiales, las cuales, de manera similar al funcionamiento del cerebro humano, están diseñadas a partir de una serie de capas de nodos que procesan información individualmente, pero que se encuentran interconectados para retroalimentarse y encontrar patrones -a veces no evidentes para los humanos- a partir de los datos. Veamos el siguiente ejemplo que ilustra el empleo de una red neuronal artificial para estimar el precio de un inmueble.

Las variables de entrada son solamente ilustrativas, no exhaustivas. La manera en que se desarrollaría un sistema como el anterior es contando con una amplia base datos, no necesariamente normalizados, que contenga las variables y los precios que resultan, es decir, contiene ejemplos a partir de los cuales podrá aprender la red neuronal artificial. Para desarrollar este sistema de pronósticos, el conjunto de datos se deberá dividir en dos:  i) en datos para “entrenar” la red neuronal y ii) en datos para “comprobar” el nivel de aprendizaje que logró la red y, en su caso, el nivel de precisión que pudiera tenerse. Una vez que se realiza lo anterior (note que se trata de información conocida), la red neuronal artificial puede utilizarse para pronosticar el precio de cualquier inmueble (no conocido) proporcionándole las variables de entrada.

Una de las características de este tipo de desarrollos, que pueden identificar patrones no necesariamente evidentes para los humanos, es que se trata de “cajas negras”. En efecto, de manera similar al funcionamiento del cerebro, no sabemos lo que está pasando en la red neuronal artificial por lo que, más que responder a la pregunta de si las máquinas pueden pensar, lo que pudiera no ser tan relevante si consideramos la cita inicial de Edsger Dijkstra, lo que se quiere ilustrar con estos ejemplos es que los datos, y ya no tanto los expertos, son el insumo más relevante para el entrenamiento de sistemas de I.A. En ese sentido, las telecomunicaciones (el IoT por ejemplo) están permitiendo generar grandes volúmenes de datos y se puede tener acceso a ellos prácticamente en tiempo real. ¿Cuántos vehículos están circulando en este preciso momento en la Ciudad de México? ¿Qué productos se consumieron la última hora en todos los supermercados del país?

Los datos se están generando permanentemente, ¿cómo se deben tratar esos datos?, ¿quién es el propietario?, ¿quién o quiénes pueden tener acceso? son algunas de las preguntas que debemos respondernos y generar condiciones propicias para el desarrollo de la I.A. en México

Javier Juárez Mojica. Comisionado del Instituto Federal de Telecomunicaciones. Miembro honorario de la Comisión de Ética en el Conocimiento Científico y la Tecnología (COMEST) de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). Formó parte del Grupo de Expertos de Inteligencia Artificial (OEGAI) de la Organización para la Cooperación y Desarrollo Económicos (OCDE). Twitter: @juarezmojica

Nota: Las opiniones y datos contenidos en este documento son de la exclusiva responsabilidad de su(s) autor(es) y no representan el punto de vista del CIDE o del IFT como instituciones.

_________________________

[1]Véase, por ejemplo, la película Ex Machina, del director Alex Garland, del 2014.

[2] Basado en el “dilemma del tranvía”. Para leer más visite http://www.trolleydilemma.com.

[3] OECD Science, Technology and Innovation Outlook 2018: Adapting to Technological and Societal Disruption.https://read.oecd-ilibrary.org/science-and-technology/oecd-science-technology-and-innovation-outlook-2018_sti_in_outlook-2018-en

(Visitado 3.081 veces, 1 visitas hoy)