viernes, 18 de octubre de 2013

¡¡Oculus Rift en mi cabeza!! Metro: Last Light

  • Los juegos interactivos incluirán entornos visuales y sonoros tanto envolventes como convincentes, pero la interacción táctil aún estará limitada.
  • Más allá de las grabaciones musicales, imágenes y vídeos de películas, el entretenimiento digital más popular será el software de experiencia virtual. Estos entornos virtuales interactivos permitirán el descenso de ríos virtuales, viajar en ala delta por el Gran Cañón o tener encuentros íntimos con la estrella cinematográfica preferida. Los usuarios experimentarán entornos de fantasía sin equivalencia en el mundo físico.

  • Las personas experimentarán la realidad virtual en tres dimensiones por medio de gafas y lentes de contacto que proyectarán imágenes directamente hacia la retina. Junto con auriculares, los usuarios podrán telecomunicarse con otras personas y acceder a Internet.
  • Estas gafas especiales y lentes de contacto podrán proporcionar «realidad aumentada» y «realidad virtual» de tres modos diferentes: En primer lugar podrán proyectar un HUD (consola de visualización frontal) a través del campo visual del usuario, superponiendo imágenes que permanecen fijas en el entorno independientemente de la perspectiva u orientación del usuario. En segundo lugar objetos o personas virtuales podrán renderizarse a través de las gafas en lugares fijos, de modo que cuando los ojos del usuario miren en otro lugar, los objetos permanecerán en su posición. En tercer lugar los dispositivos podrán bloquear completamente el mundo real y sumergir totalmente al usuario en un entorno de realidad virtual.

Hoy en ¡¡Oculus Rift en mi cabeza!! hablaré de Metro: Last Light secuela de Metro 2033, ambos videojuegos de acción en primera persona y survival horror basados en la novela Metro 2033 del autor ruso Dmitry Glukhovsky. El argumento gira en torno a Artyom, un joven que recorre un largo camino para salvar su mundo de un peligro mortal. Se describen las consecuencias de una guerra atómica en la que sus únicos supervivientes luchan por sobrevivir en el laberíntico metro de Moscú veinte años después del holocausto nuclear.

Oculus Rift + Metro: Last Light

Metro: Last Light es a día de hoy, uno de los videojuegos más avanzados y exigentes gráficamente, con unos requerimientos en cuanto a potencia de computo CPU+GPU muy elevados. Para ejecutarlo fluidamente a una resolución de 1080p hace falta un equipo con procesador Intel Core i7-3770 3.4Ghz, 8GB DDR3 y AMD Radeon HD 7970. Con ello conseguiremos apreciar al máximo todos los detalles gráficos de este juego.

Su argumento y el desarrollo de su historia nos mantiene enganchados desde el primer momento, siendo nosotros los protagonistas de la misma encarnando a Artyom.

En el siguiente vídeo de ResetLoad podemos ver que lo bien que está implementado el control del juego para Oculus Rift y lo inmersivo que resulta al tratarse de un videojuego en 1ª persona. Somos los absolutos protagonistas de la historia y debido a los scripts de movimiento de las escenas, la calidad gráfica del producto y su argumento escuchamos como ResetLoad suelta de vez en cuando un WoooooW.

mejor a pantalla completa y 1080p


La capacidad de inmersión es tan abrumadora que de vez en cuando se queda ensimismado viendo flotar las partículas de polvo en suspensión. Parapetado tras un muro teme salir porque escucha a pocos metros las voces de los vigías. Incluso comenta lo increíble que es el poder de sugestión una vez que lleva unos minutos dentro de esa nueva realidad.

No deja de ser otro videojuego más (de los buenos eso sí) que se puede jugar con un PC potente, pero si lo visualizamos a través de unas Oculus Rift le daremos un giro de tuerca a la experiencia. Por lo tanto la rejugabilidad está asegurada porque aunque se haya finalizado anteriormente en "pantalla tradicional" la sensación que te deja rejugarlo mediante Oculus Rift es prácticamente la de un juego nuevo, una historia nueva.

Obviamente esta clase de productos tienen que venir doblados a nuestro idioma porque leer subtítulos incrustados bajo nuestra vista no es para nada cómodo.

Por último os dejo con este vídeo en el que vemos la reacción de una niña de 8 años trasteando con las OR e intentando tocar con total naturalidad la realidad virtual... ;D

jueves, 17 de octubre de 2013

Oído biónico hecho de nanopartículas de plata y silicio

 
  • Habrá una creciente percepción de que la ceguera, la sordera y el impedimento físico no producen desventajas. Los discapacitados describirán sus discapacidades como meros inconvenientes. La tecnología inteligente se habrá convertido en la gran niveladora de posibilidades.
  • Las personas sordas o con problemas de audición llevarán frecuentemente máquinas que traducirán la voz texto, mostrando una transcripción en tiempo real o una persona animada gesticulando en el lenguaje de signos. Habrán eliminado el principal problema de comunicación asociado con la sordera, y también podrán traducir lo que se está hablando a otro idioma en tiempo real, así que las usarán frecuentemente las personas con audición también.
  • Se habrán introducido dispositivos de órtesis controlados por computadora. Estas «máquinas andantes» permitirán a los parapléjicos caminar y subir escaleras. Los dispositivos protésicos aún no serán útiles para todas las personas parapléjicas, ya que muchas personas discapacitadas físicamente presentarán articulaciones con años de falta de uso. Sin embargo, el advenimiento de esta tecnología motivará en mayor medida la sustitución de estas articulaciones.

  • Los sordos usarán gafas especiales que convertirán la voz en texto o signos, y la música en imágenes o sensaciones táctiles. Los implantes cocleares, entre otros, serán de amplio uso. 
  • Las personas con daños en la médula espinal podrán caminar y subir escalones mediante estimulación nerviosa controlada por computadora y andadores robóticos exoesqueléticos.

  2029 - 2048:
  • También habrá disponibles implantes diseñados para una conexión directa con el cerebro. Serán capaces de aumentar los sentidos naturales y de mejorar funciones cerebrales elevadas como la memoria, la velocidad de aprendizaje y la inteligencia en general.

Un grupo de investigadores de la Universidad de Princeton liderados por Michael McAlpine han creado un oído medio orgánico biónico que puede captar frecuencias millones de veces más altas que las del oído humano normal. Lo han conseguido mediante una impresora 3D con tres “cartuchos de tinta” que contenían:
  • Células cartilaginosas de bovino sobre una capa de hidrogel.
  • Nanopartículas de plata, que forman la especie de antena que se ve en el centro.
  • Silicio para revestir los elementos electrónicos.
El resultado es un oído que pese a no poder captar sonidos normales, puede recibir y emitir ondas de radio. Sin embargo en próximos modelos es muy posible que se incorpore esta funcionalidad.



Según dijo  McAlpine, se escogió un oído medio ya que prácticamente no tiene conexiones vasculares, elementos que la tecnología actual no permite desarrollar debido a que tienen una geometría increíblemente compleja.

Las posibilidades que entrega esta tecnología permitiría integrar aparatos electrónicos en órganos artificiales que mejorarían las capacidades humanas.




Fuente: 
MIT technology review

miércoles, 16 de octubre de 2013

Arte virtual

  • La alta calidad de las pantallas de computadora, y las facilidades del software de renderización visual asistida por computadora, habrá hecho que la pantalla de la computadora sea una oportunidad para el arte visual. La mayor parte del arte visual será el resultado de la colaboración entre los artistas humanos y su software inteligente de arte. Las pinturas virtuales (pantallas de alta resolución colgadas en la pared) se habrán hecho populares. Más que mostrar siempre la misma obra de arte, o con una pintura convencional o un póster inteligente, estas pinturas virtuales podrán cambiar el trabajo visualizado con una orden verbal del usuario, o podrán cambiar cíclicamente a través de colecciones de arte. Podrá tratarse de obras creadas por artistas humanos o arte original creado en tiempo real por software artístico cibernético.

  • Artistas virtuales (computadoras creativas capaces de producir su propio arte y música) emergerán en todos los campos de las artes.

El nuevo álbum titulado Sadly by your side del compositor italiano de música electrónica Davide Cairo @k@ Edisonnoside tiene una peculiaridad que lo hace único... cada vez que lo escuches podrá sonar diferente ¿Como lo hace? Pues gracias a una aplicación para smartphones que modifica samples de sonido en función de a donde enfoquemos la cámara del teléfono.




Lo que la lente capta mediante esta aplicación gratuita para iOS, es transformado en imágenes de color negro, rojo y azul, consiguiendo de esta forma, ecualizar el sonido en tiempo real.

El libreto que viene junto al disco lleva impreso entre sus páginas una serie de patrones de color que nos permite, tras enfocarlos con la cámara, escuchar el álbum tal y como lo concibió su creador.


Sin embargo tenemos la posibilidad de escucharlo de forma diferente, aplicando los patrones de color que se encuentran en el entorno que nos rodea. Simplemente enfocando aquello que nos encontramos a nuestro paso, obtendremos nuevas secuencias de color que realzarán o suavizarán matices de sonido, con lo que la música se escuchará diferente.





Fuente:
Fabrica Store

lunes, 14 de octubre de 2013

Asistentes virtuales

  • Las interfaces lingüísticas del usuario (LUI) estarán por todas partes; y combinarán CSR y comprensión natural del lenguaje. Para tareas rutinarias, tales como transacciones comerciales simples y solicitudes de información, los LUI serán bastante sensibles y precisos. Tenderán a estar, no obstante, estrechamente enfocados en ciertas tareas específicas. Estarán frecuentemente combinados con personalidades animadas. Interactuar con una personalidad animada para realizar una compra o hacer una reserva será como hablar con una persona mediante videoconferencia, excepto por el hecho de que la persona estará simulada.
  • La tecnología de traducción telefónica (donde hablas en inglés y tus amigos japoneses te oyen en japonés, y viceversa) se usará comúnmente para muchos pares de idiomas. Será una capacidad rutinaria de una computadora personal, que también servirá como teléfono.
  • Las personas sordas o con problemas de audición llevarán frecuentemente máquinas que traducirán la voz a texto, mostrando una transcripción en tiempo real o una persona animada gesticulando en el lenguaje de signos. Habrán eliminado el principal problema de comunicación asociado con la sordera, y también podrán traducir lo que se está hablando a otro idioma en tiempo real, así que las usarán frecuentemente las personas con audición también.

  • Las personas se comunicarán con sus computadoras por medio de un diálogo bidireccional y gestos en lugar de con teclados. Además, la mayor parte de esta interacción ocurrirá a través de asistentes computarizados con diferentes personalidades que el usuario podrá seleccionar o personalizar. Relacionarse con computadoras será por lo tanto cada vez más parecido a relacionarse con seres humanos.

Recientemente saltó la noticia de la adquisición por parte de Intel de la compañía sevillana Indisys (Intelligent Dialogue Systems) por €20M aproximadamente.

La empresa se dedica a desarrollar asistentes virtuales con los que se puede mantener una conversación flexible en múltiples modalidades, idiomas, canales y dispositivos. Dichos asistentes simulados ya están siendo utilizados en tiendas de El Corte Inglés, locales de Mapfre o oficinas del BBVA y son capaces de mantener una conversación con usuarios humanos sin problemas y a través de varias plataformas (incluidas llamadas telefónicas convencionales)

Que Intel adquiera a Indisys no hace más que reforzar las palabras de Ray Kurzweil en su libro 'La era de las máquinas espirituales' cuando intuye que:
  • ...para 2018 será habitual el uso de interfaces lingüísticas con las que interactuaremos...
  • ...para 2028 relacionarse con computadoras será cada vez más parecido a relacionarse con seres humanos...

Ademas estos asistentes son políglotas, ya que pueden hablar en varios idiomas simplemente agregando el software de traducción de Google, que se encarga de responder e interactuar con el usuario, no solo mostrando el texto en un chat sino pronunciando las palabras y comprendiendo las respuestas dadas por el usuario.

En el siguiente vídeo se puede ver en funcionamiento esta tecnología. También se puede probar el funcionamiento de Maya, uno de sus asistentes virtuales en 3D, en la página web de Indisy.




Tened por seguro que con la proliferación de smartphones (con su pantalla, altavoz, micrófono y conexión a internet) junto con el interés de multinacionales como Intel, Microsof, Google, Apple por desarrollar asistentes virtuales e interfaces lingüísticas, en poco tiempo será habitual "hablar" con una máquina, creyendo que se trata de una persona.

Recordad el articulo de traducción en tiempo real en el que os hablé del procesador Qualcomm Snapdragon 800 que permite comunicarnos con el smartphone a través de la voz y con su capacidad de estar atento a la activación por voz (y de hacerlo con un consumo ínfimo). Si combinamos estas dos tecnologías vemos como efectivamente tendremos asistentes de bolsillo.

Próximamente hablaré del Valle Inquietante y analizaremos esa extraña sensación que nos puede llegar a dejar la realidad virtual.




Fuente:
TechCrunch, Wikipedia, Indisys