El asistente de voz de Google ha tenido también mucho protagonismo en la conferencia inaugural del evento Google I/O 2015, y es evidente que la ambición de la empresa de Mountain View en este sentido sigue creciendo. En Google Now debuta una nueva característica que permite a esta aplicación examinar todo lo que ocurre en nuestra pantalla para a continuación decidir qué hacer y ejecutar una serie de acciones.
En esencia lo que esto permite es que Google Now pueda estar imbuido en toda la plataforma para sacar partido de "toda esa información de nuestros teléfonos" que manejamos a diario, indicaba Sundar Pichai. La inversión en aprendizaje máquina que Google ha realizado en los últimos años quiere cobrar sentido, y este es uno de sus resultados.
Adelantándose a nuestros deseos
Entre otras cosas, en Google quieren darle más inteligencia y contexto a las respuestas que proporciona en asistente. Así, esos "100 millones de sitios" que tienen registrados no son solo direcciones o teléfonos, ya que en Google quieren ofrecernos información sobre "cuándo están abiertos o cerrados o qué necesitaremos cuando lleguemos a ellos". En un ejemplo mostrado por la responsable de producto, Aparna Chennapragada, al reproducir una canción del artista Skrillex simplemente preguntó "¿cuál es su nombre real?", lo que hizo que Google Now mostrará esa información deduciendo que queríamos conocer, efectivamente, la identidad real de ese artista.
Lo mismo ocurre por ejemplo si mandamos un correo a alguien con ideas para cenar: Google Now recolectará esa información para asistirnos en la búsqueda del restaurante, con calificaciones de cada emplazamiento o las horas que pueden encajar según la conversación que mantengamos. Además nos puede dar definiciones de palabras si las tocamos dos veces sobre la pantalla, y mucho más.
Now on tap, el asistente disponible justo cuando y donde quieres
Como indican en el blog oficial dedicado a este apartado en Google, al mantener el botón de Inicio pulsado Google Now se adaptará a la aplicación y escenario en que lo pulsemos: da igual en qué aplicación o pantalla estemos, ya que el asistente de voz tratará -como ha intentado desde el principio- de saber lo que queremos antes incluso de que nosotros lo queramos o lo hayamos pedido.
Esa opción a la que Google ha bautizado como "Now on tap" permitirá por ejemplo que si un amigo nos manda un correo para proponernos ir a ver la peli "Tomorrowland", al pulsar y mantener el botón de inicio aparezca la información sobre la película, con su calificación, el enlace al tráiler, o incluso otro para poder comprar las entradas (¿con Android Pay?).
Esa pulsación también puede ser sutituida con el tradicional "Ok Google" desde cualquier pantalla y aplicación. En ambos casos el asistente de voz de Google se basa en el contexto para intentar adivinar lo que necesitamos y queremos y proporcionárnoslo. Para ello se integra con servicios como IMDb en el caso de la información de películas o OpenTable para los restaurantes. Los desarrolladores ni siquiera tienen que hacer nada para aprovechar esta capacidad: basta con que sus aplicaciones estén indexadas por Google.
Más información | InsideSearch
Ver 39 comentarios