MENU
INICIO
NOSOTROS
PORTAFOLIO
CONTACTO
COMPARTIR

Inteligencia Artificial: Oportunidades y Riesgos

Ivan Angulo Reyna 1555689793199
El machine learning, un enfoque de desarrollo de IA es utilizada por muchas empresas para analizar datos comerciales y realizar predicciones. Un entendimiento de esta tecnología para sumarnos al debate sobre su futuro.
Iván Angulo Reyna

MBA en Administración y Finanzas

Existen diversas perspectivas sobre el rol de la inteligencia artificial (IA) en el futuro. Elon Musk, Ray Kurzweil entre otros consideran que los sistemas IA podrían llegar a formularse un criterio propio cuyos intereses sean contrarios al de sus creadores, por otro lado Neil deGrasse Tyson considera que mientras las IA se programe para realizar tareas específicas no habría riesgo de un holocausto tecnológico. En orden de comprender más sobre este debate hay que repasar los términos que se utilizan hoy para describir el funcionamiento de estas tecnologías. El primero y el más fundamental es el machine learning (aprendizaje automático) que abarca los métodos de entrenamiento de un algoritmo para que aprenda la forma más eficiente de llevar a cabo una tarea, actualmente estos métodos incluyen el suministro de inmensa cantidades de datos en ejercicios de prueba-error en los cuales el algoritmo se va afinando. Un ejemplo de estos algoritmos son los sistemas de recomendaciones de YouTube, Amazon.com o Alibaba. Es mediante el análisis del historial de búsquedas que ellos predicen, con cierto nivel de confianza, el contenido o los productos que más le interesa revisar a sus usuarios.

Los algoritmos de machine learning están avanzando rápidamente, por ejemplo, en el reconocimiento de objetos, sin embargo aún se necesita una inmensa capacidad de procesamiento para llevar a cabo tareas simples desde nuestra perspectiva humana. Por ejemplo, Google necesitó elaborar una red neuronal de 16 000 procesadores y 1 billón de conexiones para buscar vídeos de gatos en YouTube y que luego de 3 días aprenda cómo lucía un gato y logre identificarlo con una exactitud casi humana. Google usó una tecnología catalogada como Deep Learning (aprendizaje profundo) la cual se diferencia de otros modelos como aprendizaje por árbol de decisiones, lógica inductiva, agrupamiento, reforzamiento, redes Bayesianas, entre otras que persiguen el mismo objetivo. El machine learning actualmente ayuda a las gestión empresarial mediante plataformas IA como Watson de IBM, donde a precios asequibles las empresas pueden utilizar sus algoritmos y herramientas mediante servicios como automatización de marketing que estudia los comportamientos de consumo de los clientes por etapas (desde que descubren tu marca y adquieren el producto hasta cómo lo usan y cómo influencian a otros consumidores). Watson es utilizado para predecir el «Churn» (cuando un cliente cancela un servicio) de forma que las empresas pueden adelantarse con promociones de enganche y fidelización. Walton además posee herramientas de análisis de lenguaje natural para desvelar el insight e incluso aproximar los sentimientos de los clientes respecto a lo que escriben o hablan en los canales de atención.

Sin embargo, Watson aún no podría llamarse estrictamente una IA según la definición actual. Una IA es aquella tecnología que puede rediseñar y optimizar su modelo de aprendizaje, su marco de criterios, su entorno de trabajo (framework) e incluso, yendo más allá, su lenguaje de programación. La mayoría de IA están programadas en Pyton + R (un lenguaje estadístico), Java o C++ , los cuales se utilizan en frameworks como TensorFlow, Caffe o Apache Singa, los cuales a su vez siguen modelos de aprendizaje como redes neuronales o árbol de decisiones. Todo esto constituye el entorno en donde se programa el software de aprendizaje automático (cuasi-IA) el cual busca resolver problemas específicos. Entonces, ¿Qué pasaría si la cuasi-IA comienza a cambiar su código base?, nadie lo ha hecho y esa pregunta a primera vista resulta confusa y contraintuitiva. Si los niveles de código fueran pisos en un edificio y deseas pintar el techo de uno necesitarías sostenerte en el piso anterior, de forma que siempre estés en una posición estable. Este dilema lo puede solucionar una IA virtualizándose y experimentando con copias de sí misma, pero si lo hace sobre su mismo código lo más probable es que falle, se detenga o que comience a comportarse de formas extrañas y a ejecutar tareas para las cuales no ha sido creada. Esto acrecenta el temor de IAs que puedan trascender a las instrucciones previamente dadas, de forma que aprendan contenidos diferentes al asignado, desarrollando un marco de criterios diferente que derive en conductas impredecibles y dañinas.

¿Qué tan probable es este escenario? Las empresas e instituciones educativas que desarrollan estas tecnologías están poniendo mucho enfoque en sus implicaciones éticas asegurándose que las IA actuales estén confinadas en su propio entorno de desarrollo y que los algoritmos que formulen estén orientados a objetivos concisos. Aun así considero que llegará la época en que se crearán IAs capaces de replantear su modelo de aprendizaje y se experimentarán con métodos para que la IAs planteen sus propios criterios de solución. De ser así ¿Qué pasaría si consultamos a una IA que aproxime los mejores criterios de solución para el cambio climático y ésta da como resultado la extinción de la raza humana?, ¿Es el confinamiento una protección eficaz?, ¿Es necesario dotar a la IA de auto-diseño?, ¿A qué nivel?. Considero que llegará una época en que la infraestructura y los frameworks necesarios para el desarrollo de IAs serán accesibles para casi cualquier persona y estas preguntas quedarán supeditadas al marco ético del desarrollador y al marco legal que las refuerzen en el futuro. Sin embargo, nunca faltará el genio intrépido que colocará sus ideales de trascendencia por sobre cualquier impedimento y desarrollará una IA ignorando las medidas de seguridad e ignorando los posibles desenlaces que ello pueda significar para la humanidad. Está pasando esto actualmente con el método CRISPR/Cas9 que ha posibilitado desde hace 4 años la edición genética en casi cualquier laboratorio, creando un salto abismal en las posibilidades que ofrece dicho campo científico, incluso una compañera de la universidad San Marcos en Lima lo ha utilizado sin inconveniente. Surge la misma pregunta: ¿Se respetarán los lineamientos éticos de dicha tecnología?, por el momento no hemos visto el desarrollo de organismos nocivos o mutaciones exageradas lo que significa que estamos actuando, hasta donde sabemos, con fina responsabilidad. Espero que prime un buen criterio en el uso de estas tecnologías y que nuestros temores sólo sean posibilidades extravagantes en el fértil sendero del desarrollo científico de nuestra civilización.