Explicación de Intel: 6 términos de inteligencia artificial

La inteligencia artificial engloba un amplio conjunto de ciencias de la computación para la percepción, la lógica y el aprendizaje. Un método de inteligencia artificial es el aprendizaje automático – programas que se desempeñan mejor con el tiempo y con mayor información. El aprendizaje profundo es uno de los enfoques más prometedores del aprendizaje automático. Utiliza algoritmos basados en las redes neuronales – una manera de conectar entradas y salidas con base en un modelo de la forma en que creemos que funciona el cerebro – que encuentran la mejor manera de resolver los problemas por sí mismos, a diferencia del programador o el científico que los escribe. La capacitación es la forma en que las aplicaciones de aprendizaje profundo se “programan” – alimentándolas con más información y afinándolas. Inferencia es la forma en que se ejecutan, para efectuar análisis o tomar decisiones.

INTELIGENCIA ARTIFICIAL

Hay muchas formas de definir la inteligencia artificial (IA) – sobre todo porque la “inteligencia” por sí sola puede ser difícil de precisar y también porque la gente le atribuye todo a la IA, desde lo imponente hasta lo práctico.

El investigador de Intel, Pradeep Dubey, le llama a la inteligencia artificial “una simple visión en la que las computadoras se vuelven indistinguibles de los humanos”. También se ha definido simplemente como “darles sentido a los datos”, lo que refleja en gran medida la forma en que las compañías la utilizan en la actualidad.

Más información: Inteligencia Artificial en Intel (Press Kit) | IA en Intel (intel.com) | Más explicaciones de Intel

En general, la IA es un término genérico para una variedad de algoritmos y enfoques informáticos que permiten que las máquinas perciban, razonen, actúen y se adapten, como lo hacen los seres humanos – o en formas que van más allá de nuestras habilidades.

Entre las capacidades similares a las humanas, se encuentran las aplicaciones que reconocen el rostro en las fotografías, los robots que pueden transitar por hoteles y plantas de producción y los dispositivos capaces de tener conversaciones (en cierto modo) naturales con una persona.

Las funciones que van más allá de las humanas podrían incluir la identificación de tormentas potencialmente peligrosas antes de que se formen, predecir fallas en el equipo antes de que ocurran, o detectar malware – tareas que son difíciles o imposibles de realizar para la gente.

Un conjunto de personas en Intel, el Grupo de Productos de Inteligencia Artificial, trabaja para ofrecer hardware, software, ciencia e investigación de datos, con el fin de que estas nuevas capacidades cobren vida.

“Queremos crear una nueva clase de IA que entienda los datos, en todas las áreas” – Amir Khosrowshahi, director de tecnología del Grupo de Productos de Inteligencia Artificial de Intel.

Las personas “piensan que estamos recreando un cerebro”, dijo Amir Khosrowshahi, director de tecnología del Grupo de Productos de Inteligencia Artificial en una entrevista. Sin embargo, “queremos ir más allá; queremos crear una nueva clase de inteligencia artificial que pueda comprender las estadísticas de los datos usados en el comercio, la medicina, en todos los campos, y que la naturaleza de los datos sea muy diferente al mundo real”.

El trabajo en inteligencia artificial data por lo menos de la década de 1950, seguido desde entonces por varios ciclos de auge y caída de investigación e inversiones, a medida que crecían las esperanzas de nuevos enfoques y aplicaciones (como el programa de juego de damas de Arthur Samuel en la década de 1950, y el robot Shakey de Stanford en la década de 1960), y que después sufrió una caída debido a que estos métodos no lograron dar resultado (causando “los inviernos de la inteligencia artificial”, cuando la inversión y el interés público se enfriaron).

Hay cuatro grandes razones por las que hoy estamos en una nueva primavera de la inteligencia artificial: más cómputo (la nube pone al alcance de todos computadoras de gran capacidad), más datos (sobre todo con la proliferación de cámaras y detectores), mejores algoritmos (los enfoques han pasado de ser curiosidades académicas a vencer el desempeño humano en tareas como la comprensión de lectura) y amplias inversiones.

 APRENDIZAJE AUTOMÁTICO

La inteligencia artificial abarca todo un conjunto de diferentes métodos de computación y un importante subconjunto de estos se llama “aprendizaje automático.”

Como lo explica Dubey de Intel, el aprendizaje automático “es un programa en el que el desempeño mejora con el tiempo,” y que también mejora con más datos. Es decir, la máquina es más inteligente y, cuanto más “estudia” se vuelve aún más.

Una definición más formal del aprendizaje automático que se utiliza en Intel es: “la construcción y el estudio de algoritmos que pueden aprender de los datos para hacer predicciones o tomar decisiones”.

La revista Wired declaró “el fin del código” al describir la forma en que el aprendizaje automático está cambiando la programación: “En la programación tradicional, un ingeniero escribe instrucciones explícitas, paso por paso, para que las siga la computadora. Con el aprendizaje automático, los programadores no codifican a las computadoras con instrucciones. Las capacitan”.

Usando el aprendizaje automático, un importante hospital de oftalmología de China pudo aumentar al 93 % la detección de las causas potenciales de la ceguera, que tradicionalmente era del 70 al 80% para los clínicos.

Por ejemplo: un oftalmoscopio alimentado por inteligencia artificial (la versión digital del dispositivo que utilizaría un médico para ver dentro de los ojos) construido por el grupo hospitalario Aier Eye y MedImaging Integrated Solutions, aprendió cómo identificar la retinopatía diabética y la degeneración macular relacionada con la edad (las cuales pueden causar ceguera) “viendo” miles de imágenes etiquetadas de ojos sanos y no sanos.

Un análisis temprano con base en datos de 5,000 pacientes de Aier mostró que la precisión de la detección, que había promediado del 70 al 80% en el examen realizado por los seres humanos, subió a 93% con la solución de inteligencia artificial. Con más tiempo y más datos, podría seguir incrementándose su precisión.

 REDES NEURONALES Y APRENDIZAJE PROFUNDO

Las redes neuronales y el aprendizaje profundo están estrechamente relacionados y con frecuencia se utilizan indistintamente; pero, hay una diferencia. Sencillamente, el aprendizaje profundo es un método específico de aprendizaje automático, y se basa primordialmente en el uso de redes neuronales.

“En el aprendizaje automático supervisado tradicional, los sistemas necesitan que un experto utilice sus conocimientos para especificar la información (llamadas características) en los datos de entrada que mejor darán como resultado un sistema bien capacitado,” escribió un equipo de ingenieros y científicos de datos de inteligencia artificial de Intel en un blog reciente. En el ejemplo de prevención de la ceguera, significaría especificar los colores, las formas y los patrones que separan un ojo sano de uno con problemas.

El aprendizaje profundo es diferente. “En lugar de especificar las características de nuestros datos que pensamos que conducirán a una mejor precisión de la clasificación,” continuaron, “dejamos que la máquina encuentre esta información por sí sola. A menudo, ésta puede ver el problema de una manera que incluso un experto no hubiera podido imaginar.”

En otras palabras, el examinador de salud ocular de Aier podría no llegar a “ver” ciertas condiciones, como lo hace cualquier médico humano, aun cuando no deja de ser más preciso. Es lo que hace que el aprendizaje profundo sea tan poderoso – considerando que se cuente con suficientes datos fiables, se pueden usar para resolver problemas con destreza y precisión sin precedentes.

La red neural – técnicamente es una “red neuronal artificial”, ya que se basa en la manera en que pensamos que trabaja el cerebro – proporciona las matemáticas que la hacen trabajar. Google ofrece una herramienta en la que puede jugar realmente con una red neuronal en su explorador, y también ofrece una definición simplificada: “Primero, se crea una colección de ‘neuronas’ de software y se conectan, permitiendo que se envíen mensajes entre sí. Después, se le pide a la red que resuelva un problema, lo que intenta hacer una y otra vez, cada vez fortaleciendo más las conexiones que llevan al éxito y disminuyendo las que llevan al fracaso.”

Aquí hay una representación básica de una red neuronal, donde los círculos son neuronas y las flechas son conexiones:

La parte importante es ésta: La red neuronal permite desglosar el programa en fragmentos cada vez más pequeños – y, por consiguiente, cada vez más simples. “Profundo” en el aprendizaje profundo define el uso de una red neuronal de muchas capas. Con más capas, el programa se afina más en lo que pude categorizar y más preciso en hacerlo – solo requiere de más y más datos y mayor poder de cómputo.

“El aprendizaje profundo no es magia – es matemáticas.” – Pradeep Dubey, investigador de Intel y director del Laboratorio de Computación Paralela de Intel Labs.

Los conceptos suenan complejos, pero cuando se trata del código real que se ejecuta, de hecho, es muy simple. “No es magia – es matemáticas,” señaló Dubey. Multiplicación de matrices, para ser exactos, “más simple, imposible,” agregó el miembro investigador de Intel.

CAPACITACIÓN E INFERENCIA

Muy bien, hay otros dos conceptos rápidos que deben tomarse en cuenta: capacitación e inferencia. La capacitación es la parte del aprendizaje automático en el que están construyendo su algoritmo, configurándolo con datos para que haga lo que la persona quiere que haga. Ésta es la parte difícil.

“La capacitación es el proceso mediante el cual nuestro sistema encuentra patrones en los datos,” escribió el equipo de IA de Intel. “Durante la capacitación, pasamos datos a través de la red neuronal, se corrigen errores después de cada muestra y se repite hasta que se logra la mejor parametrización de la red. Después de que se capacitó la red, la arquitectura resultante puede usarse para inferencia.”

En el caso del examinador ocular de Aier, por ejemplo, la capacitación involucraba la alimentación de imágenes de los ojos etiquetados como sanos o no.

Y entonces, ahí está la inferencia, que encaja en su definición del diccionario al pie de la letra: “Acto o proceso de derivar conclusiones lógicas de premisas que se conocen o asumen que son verdaderas.”  En la analogía del software, capacitar es escribir el programa, mientras que inferencia es usarlo.

“Inferencia es el proceso de usar el modelo capacitado para hacer predicciones sobre los datos que no habíamos visto antes,” escribieron los chicos expertos de Intel.  Aquí es donde realmente tiene lugar la función que podría ver un consumidor – la cámara de Aier valorando la salud de sus ojos, Bing respondiendo a sus preguntas o un dron que rodea un obstáculo en forma automática.