“Los seres humanos tienen sueños. Incluso los perros tienen sueños. Pero tú no. Tú solo eres una máquina. Una imitación de la vida. ¿Puede un robot escribir una sinfonía? ¿Puede un robot convertir un lienzo en una hermosa obra maestra?” Esta célebre cita de la película ‘I, Robot‘, inspirada en una novela de Isaac Asimov, plantea preguntas que la tecnología, hoy, ya puede responder.
La idea de las máquinas inteligentes no es nueva, ni mucho menos. Ya en la década de los 50 del siglo pasado, la investigación sobre Inteligencia Artificial estaba en pleno auge. Entonces, incluso, se suponía que las máquinas, aplicaciones y robots inteligentes serían una realidad en poco tiempo. Obviamente, esta expectativa resultó ser prematura, y no se materializó porque el poder de computación disponible en aquel momento no era suficiente para soportarlo. Esto hizo que la investigación sobre “AI” fuera arrinconada por un tiempo.
Hoy, medio siglo después, la idea ha renacido, y ya están apareciendo nuevas aplicaciones de machine learning para hacerse cargo de infinidad de aspectos de nuestras vidas. Dejando a un lado las obras de arte, hay aplicaciones más funcionales como el software de reconocimiento facial, sistemas de interpretación del lenguaje en llamadas de voz como Skype Translator, servicios de transporte cooperativo como Uber o Cabify, herramientas de diagnóstico telemático, soluciones inteligentes de protección de datos y un largo etcétera.
Deep Learning
Mientras somos testigos de este renacimiento del Machine Learning, ahora surge un nuevo concepto: el de Deep Learning. La diferencia entre ambos dice mucho del futuro hacia el que se dirige el mundo de las tecnologías de la información. Veamos por qué.
Para ser operativos, los algoritmos de machine learning necesitan nutrirse de datos, pero también necesitan un ser humano que actúe como mediador y les eduque a través de reglas y clasificaciones, para distinguir e identificar lo que se requiere de ellos. En el caso del Deep Learning, por contra, los algoritmos no requieren en absoluto de dicha mediación.
Por ejemplo, si cargamos en un PC varias fotos de gatos y educamos al algoritmo de machine learning sobre lo que es un gato, este eventualmente aprenderá a identificar de manera autónoma nuevas imágenes, incluso aunque no las haya visto antes. En el caso del Deep Learning, todo lo que se necesitará es una mayor concentración de datos para que el sistema pueda aprender cómo definir, clasificar e identificar al gato.
Gracias a las capacidades de Deep Learning, los ordenadores han alcanzado capacidades de reconocimiento más rápidas y precisas que los seres humanos. Imaginemos lo que esto puede significar, por ejemplo, en las pruebas de radiología que se realizan para estudiar el crecimiento de un cáncer. El manejo del Big Data y el aprendizaje de la máquina pueden llegar a inclinar la balanza entre la vida y la muerte.
Gracias a las capacidades de Deep Learning, los ordenadores han alcanzado capacidades de reconocimiento más rápidas y precisas que los seres humanos
La clave del éxito del Deep Learning -esta “segunda era” del machine learning- estará en la capacidad de procesar grandes volúmenes de información, ya que los algoritmos de este tipo exhiben un mejor rendimiento en proporción a la cantidad de ejemplos de los que pueden “aprender”. En este sentido, el método del Deep Learning (una red neuronal artificial) es similar al del cerebro humano, que también aprende de sus experiencias.
Pensemos en un niño pequeño que comienza a aprender sobre el mundo: objetos, animales, comida… y, en general, todo lo que le rodea. Tomando de nuevo el ejemplo de los gatos, cuantas más imágenes de diferentes razas le muestre su madre (diferentes colores, diferentes posiciones, diferentes fondos, diferentes tamaños…) con más precisión los identificará él.
Técnicamente, al final el sistema podría ser capaz de identificar todo tipo de gatos, incluso si no es un gato en su forma clásica y común (por ejemplo, si ve la oreja y la cola de un gato asomando tras un sofá).
A diferencia del cerebro humano, el algoritmo puede procesar muchos más ejemplos. Pero también requerirá potentes procesadores, capaces de ofrecer un paralelismo masivo, y almacenar y permitir el acceso a inmensos volúmenes de datos de manera rápida y con un coste económico razonable.
En los últimos años hemos visto cómo las tecnologías de almacenamiento “tradicionales” han ido quedando obsoletas, lo que en un principio despejó el camino a las tecnologías All Flash. Sin embargo, estas últimas no han terminado de ofrecer los beneficios que todo el mundo esperaba de ellas. A pesar de haber demostrado un mayor rendimiento, son mucho más costosas que los sistemas de almacenamiento en disco (entre 10 y 15 veces más), y no han permitido escalar tanto como se requiere.
Para cumplir con el verdadero potencial del Machine Learning, el coste relativo del almacenamiento habrá de disminuir significativamente
Ha llegado el momento de tener en cuenta las nuevas e innovadoras tecnologías de hiper-almacenamiento, que ofrecen un mayor rendimiento que los sistemas All-Flash a un precio comparable al de los sistemas de disco. Estas tecnologías se basan en una programación inteligente que permite utilizar recursos relativamente básicos (entry-level) para almacenar volúmenes inmensos en pequeñas áreas de alta densidad, sin comprometer la fiabilidad y el rendimiento.
Se perciben nuevas e innovadoras formas de computación a la vuelta de la esquina. No está lejos el día en que todos podremos viajar en vehículos autónomos, usar un programa para responder nuestros emails o recibir atinados consejos sobre inversiones desde redes robotizadas.
El éxito del Deep Learning dependerá en gran medida de la evolución de las infraestructuras de almacenamiento. Y, en lo que respecta al almacenamiento, el futuro ya está aquí. Esta vez no hay razón para fallar de nuevo.