Adiós, ChatGPT: Gemini ya tiene la función más espectacular y futurista de la IA

A partir de este momento puedes utilizar la función más espectacular de Gemini. Google acaba de revolucionar su IA. A partir de este momento, la app de Gemini ya es capaz de ver tu pantalla o la cámara de tu móvil para interactuar en tiempo real. La función se anunció en marzo, aunque la gran G ha necesitado un poco de tiempo para poder hacerla realidad. Ya está aquí, y llega como una de las grandes bazas para superar a ChatGPT y el resto de opciones. Además, aunque como todo lo novedoso, tiene el pequeño inconveniente de tener que pasar por caja, Google ha dado la sorpresa incluyéndolo gratis a ciertos móviles. La novedad gira en torno a la función de Gemini Live, ese asistente de voz de la IA con la que es posible tener una conversación fluida sobre cualquier tema. Pues bien, este apartado ahora cuenta con la posibilidad de tener más métodos de entrada: además de la voz, puedes permitir que vea todo lo que ocurre en tu pantalla o a través de la cámara del móvil. De esta forma, la conversación ya no solo tendrá indicaciones de tu voz, sino que se podrán tomar referencias en tiempo real de lo que estás haciendo en el móvil o enfocando con tu cámara. Y, claro, las posibilidades, como puedes imaginar, ahora son casi infinitas al utilizar Gemini Live. Lamentablemente, como decíamos arriba, la función solo está disponible para aquellos usuarios que pasan por caja con la versión Gemini Advanced. Ahora bien, Google ha sorprendido a todos ofreciendo esta novedad a las cuentas gratuitas que se ejecuten desde un Pixel 9 o un Galaxy S25. Gemini Live ahora es mil veces mejor Gemini Live es un gran competidor del modelo de lenguaje avanzado de ChatGPT, permitiendo tener una conversación muy fluida y natural con la IA sobre casi cualquier tema. Ahora, la función evoluciona y hace que puedas llevar la experiencia a otro nivel. El hecho de poder interactuar con la cámara del móvil abre un mundo de posibilidades. Cuando actives el modo Gemini Live, podrás estar hablando con la IA y activar la cámara para pedirle consejo sobre lo que estás enfocando. Puede ser útil para conocer más información sobre un tipo de planta que tienes en casa o para saber si estás realizando bien un ejercicio en el gimnasio. Además, al tener acceso a la pantalla de tu dispositivo, también es útil para tener conversaciones sobre lo que ves al navegar o para que te ayude a solucionar un problema en tu smartphone. ¿Quieres cambiar la rueda del coche y no sabes cómo hacerlo? Gemini Live puede guiarte paso a paso y, además, indicarte si los pasos que estás siguiendo están hechos correctamente. ¿Necesitas ideas para decorar tu salón? Puedes activar la cámara en Gemini Live e ir enfocando las zonas clave para que la IA te dé ideas y pueda tener un contexto real de la estancia sobre la que estás preguntando. Las posibilidades tienden a lo infinito, y permiten sacarle mucho más partido a la app de Gemini desde cualquier dispositivo. Como te indicábamos más arriba: el uso de la cámara en Live está disponible desde este momento para usuarios de Gemini Advanced o gratis para todos aquellos que cuenten con un Pixel 9 o Galaxy S25. Nota tomada de: Hipertextual

Leer más

Google quiere que Gemini sea una experiencia personalizada para cada usuario, con una condición: conocer nuestro historial de búsquedas

Un Gemini que se adapte a las preferencias de los usuarios. Esa es la idea más reciente de Google, que busca convertir su asistente de IA en un producto más útil, capaz de resolver preguntas generales y solicitudes, pero también de personalizarse con los datos de cada usuario. De acuerdo con la compañía, este «Gemini personalizado» es una nueva capacidad experimental de su modelo Gemini 2.0 Flash Thinking, diseñado para conectarse con las aplicaciones de Google y ofrecer respuestas más relevantes para el consumidor. La integración comenzará con el Buscador, lo que permitirá brindar una experiencia más personalizada basada en el historial de búsqueda del usuario. Este es solo el primer paso. En los próximos meses, Google planea extender la personalización a otras aplicaciones y servicios, como Fotos y YouTube. Con esto, la compañía busca que Gemini se convierta en «un compañero aún más inteligente», capaz de establecer conexiones y ofrecer respuestas alineadas con los gustos del usuario. Cómo activar Gemini personalizado Para habilitar esta integración, es necesario seguir un proceso específico. En las aplicaciones de Gemini, se debe acceder al menú desplegable y seleccionar la opción «Personalización (experimental)» para conectar el modelo con el historial de búsqueda. Así, cuando el usuario ingrese una instrucción, la IA podrá analizar si el historial disponible puede ayudar a mejorar la respuesta. Google asegura que el usuario mantiene el control total sobre su información y los permisos de acceso, con la opción de desconectar la IA del historial en cualquier momento. El uso de estos datos no será constante. Solo se emplearán cuando los modelos de razonamiento avanzado de Google determinen que son «realmente útiles». Hasta ahora, quienes han probado la función consideran que es beneficiosa para tareas como la lluvia de ideas y la obtención de recomendaciones personalizadas. Por ahora, Gemini personalizado está disponible como una función experimental, aunque con ciertas restricciones. No podrá ser utilizada por menores de 18 años, ni en entornos Workspace o Education. Inicialmente, no tendrá límites de uso, pero Google advierte que esto podría cambiar en el futuro. La función estará disponible para los suscriptores de Gemini y Gemini Advanced en la web, y más adelante en dispositivos móviles. El servicio podrá utilizarse en más de 40 idiomas y en casi todos los países del mundo, con excepción de los que forman parte del Espacio Económico Europeo, Suiza y Reino Unido. Nota tomada de: Xataka México

Leer más