Mostrando entradas con la etiqueta Futuro. Mostrar todas las entradas
Mostrando entradas con la etiqueta Futuro. Mostrar todas las entradas

lunes, 28 de noviembre de 2016

Los cómics podrían salvarnos de la Rebelión de las Máquinas...



Es verdaderamente sorprendente (y completamente terrorífico) lo que la Inteligencia Artifical puede hacer en nuestros días: desde crear su propio algoritmo de cifrado que nadie puede descifrar o crear verdaderas Máquinas de Pesadillas hasta predecir quién es un criminal en potencia con base en sus rasgos faciales. Todos estos avances son impresionantes y, a pesar de su utilidad, podrían representar un grave (y muy real) peligro para la humanidad. Incluso el filósofo y neurocientífico Sam Harris (al igual que muchos otros especialistas del tema) ha advertido que debemos buscar pronto un modo de protegernos de la amenaza de una Inteligencia Artificial que se salga del control de la humanidad y comience a tomar acciones por sí misma que podrían conducir a nuestra aniquilación. Suena a ciencia ficción, pero el peligro es MUY real.



Afortunadamente, un curioso experimento llevado a cabo por un grupo de investigadores de la Universidad de Maryland podría arrojar una forma de defensa ante tal amenaza: descubrieron que una Inteligencia Artificial no puede entender el lenguaje visual de los cómics.

Para dicho experimento, los investigadores alimentaron a la I.A. con más de 1.2 millones de viñetas de la galería de imágenes del Digital Comics Museum y descubrieron que era extremadamente difícil que la I.A. pudiera predecir la imagen o texto de un personaje en un cómic que no hubiera analizado antes. La razón de ello es que los humanos comprendemos el complejo lenguaje formado por las secuencias de imágenes y textos de un modo que una I.A. (todavía) no puede comprender. En palabras de los propios investigadores:

Ninguna de las arquitecturas de IA ha logrado superar a los seres humanos en la tarea asignada, lo que dice mucho de la complejidad de los cómics. Los rasgos aprendidos de otras historietas no logran capturar la enorme variación de estilos de dibujo, y los modelos de interpretación de texto se ven incapaces de procesar la riqueza y ambigüedad de un lenguaje coloquial que además depende completamente del contexto visual.



Aún cuando seguramente en el futuro podría surgir una I.A. que interprete de un modo mucho más eficiente el lenguaje de las viñetas de un cómic, de momento podemos guardar la esperanza de que, de verse dominada por una eventual Rebelión de las Máquinas, la humanidad podría descansar en las habilidades de los creadores del noveno arte para que les ayuden a cifrar sus comunicaciones de modo que una I.A. no los pueda comprender.

Pueden leer todos los interesantes detalles de este curioso experimento aqui.




viernes, 14 de agosto de 2015

Crean un robot "madre" capaz de crear otros robots por sí mismo


Un equipo de investigadores de la Universidad de Cambridge ha creado un robot que es capaz de crear, probar y mejorar otros robots por sí mismo.

El robot está programado para elegir entre 1 y 5 pequeños módulos robóticos motorizados y unirlos para crear un robot que puede moverse a lo largo de distancias pequeñas. El robot "madre" crea un robot a partir de una primera combinación de módulos, lo preba, detecta lo que está mal, aprende de sus errores y cambia el proceso a fin de crear un robot mejorado. Es decir, aprende de sus errores y evoluciona sus diseños.



“La evolución se basa en la reproducción y el análisis de los nuevos ejemplares de una especie. Prueba y error.” explica el doctor Fumiya Iida, del departamento de ingeniería de la Universidad de Cambridge. “Eso es esencialmente lo que hace este robot. Las máquinas están preparadas para producción en masa, pero nosotros queremos estudiar robots capaces de ser creativos e innovar.”

La idea de un robot madre capaz de crear más robots ha dejado de ser un concepto de la ciencia ficción. Fascinante y algo atemorizante, a decir verdad.





viernes, 17 de julio de 2015

NeuralTalk o cómo las computadoras cada vez saben más sobre nosotros



Nuestras computadoras pueden reconocer nuestros rostros y nuestra voz. Gracias a las técnicas de inteligencia artificial, una computadora puede reconocer nuestro rostro y decidir si nos da acceso o no. Pero ahora, gracias a una nueva investigación de científicos de la Universidad de Stanford, una computadora también podrá saber exactamente qué estas haciendo con sólo "ver" una imagen.

El sistema, llamado NeuralTalk, fue desarrollado por Fei-Fei Li, director del Laboratorio de Inteligencia Artificial de Stanford y por Andrej Karpathy, uno de sus estudiantes y es capaz de analizar una imagen y describir exactamente qué está sucediendo con una precisión bastante escalofriante. Observen, por ejemplo, la siguiente imagen:



Como ven, el análisis de NauralTalk arrojó una descripción bastante precisa de lo que se observa en la imagen: un grupo de gente disfrazada de zombies caminando por la calle. En este otro ejemplo, el sistema detectó con alta precisión que la imagen muestra a una taza y una pieza de pan sobre un libro:



NeuralTalk usa una red neuronal para determinar qué está ocurriendo en cada imagen, comparando partes de la misma a aquéllas que previamente ha reconocido y describiéndolas como lo harían los humanos. Las redes neuronales están diseñadas para funcionar como cerebros humanos y su razonamiento es parecido al de un niño. Una vez que se les ha enseñado lo básico (cómo luce una ventana o una mesa, o cómo se ve un gato tratando de comer una hamburguesa) pueden aplicar ese conocimiento a otras imágenes o videos.

Si bien el sistema todavía dista de ser perfecto, la increíble precisión de las descripciones que puede proveer es bastante interesante. ¿Será que en un futuro podrá aplicarse esta tecnología para determinar comportamientos indebidos en las personas y lanzar alertas automáticas a las autoridades para detener un crimen? Sería una aplicación interesante.



Leer más en: The Verge





lunes, 15 de junio de 2015

MarI/O no es Ultron, pero sabe jugar Mario Bros



Seth Bling es un desarrollador de software que también resulta ser un un hábil jugador de Super Mario World. Con esos antecedentes, el buen Seth decidió crear MarI/O, una pequeña pieza de software que usa el modelo de las redes neuronales para aprender a jugar Super Mario World desde cero.

Como podemos ver en el video, MarI/O comenzó sin saber absolutamente nada de cómo se juega SMW y poco a poco, a base de prueba y error y registrando todos sus resultados, aprendió a jugar después de 24 horas. Este modelo se basa en la evolución natural del aprendizaje. Vaya, aprende como lo haría un cerebro humano, pues.



Impresionante, en verdad. Y si alguno tiene curiosidad, si hacen clic aqui, podrán ver el código fuente de MarI/O por si desean probarlo con algún otro videojuego.

Fuente: Gizmodo



viernes, 29 de mayo de 2015

Project Soli, el futuro llega de la mano de Google


Uno de los proyectos más innovadores e interesantes que ha presentado Google en su conferencia I/O 2015 es el llamado Project Soli, que consiste en tecnología de radar aplicada a dispositivos electrónicos de modo que podamos controlar prácticamente cualquier dispositivo con sólo algunos gestos y movimientos de nuestras manos.

Si bien existen otras propuestas para lograr el control de dispositivos mediante movimientos, ninguno de ellos había propuesto usar tecnología de radar (que no está limitada por la posición del emisor-sensor o por los materiales que lo rodean) para tales fines.

Este es un proyecto en desarrollo y puede que falte mucho tiempo para que lo veamos convertido en realidad, sin embargo no deja de ser prometedor y bastante sorprendente. Miren el video de presentación para que se den una idea de lo que podría esperarnos en el futuro próximo de la mano de Google:


Copyright © Mi rincón del código Compartido por Gooyaabi Templates | Powered By Blogger

Design by Anders Noren | Blogger Theme by NewBloggerThemes.com