Google cambia las videollamadas para siempre con traducción en tiempo real en Meet

Google Meet ya tiene traducción en tiempo real. En la conferencia para desarrolladores Google I/O, la compañía presentó una nueva función de traducción en tiempo real en su plataforma de videollamadas, e incluso reveló una pequeña muestra de su funcionamiento. En una llamada entre dos mujeres, al activar la traducción en tiempo real en Meet, una habló en inglés y la otra escuchó sus frases en español, y viceversa. La otra habló en español y su interlocutora escuchó en inglés. Según la demostración, la traducción en tiempo real es bastante acertada, pero la voz generada por IA suena un poco robótica en uno de los idiomas, aún así es totalmente entendible. Google explica que la traducción de idiomas sucede en «casi tiempo real», debido a que la IA necesita escuchar la frase antes de traducir. Sin embargo, el proceso demuestra ser casi inmediato, con muy poca latencia (al menos en la demostración durante la conferencia), además de que hace todo lo posible por preservar el tono y expresión de las voces. La nueva traducción en tiempo real en Meet está disponible a partir de este martes para suscriptores de los planes Google AI Pro y el nuevo nivel Ultra. Por ahora la función está en beta y disponible inicialmente en inglés y español, y Google confirma que más idiomas estarán disponibles en las próximas semanas. Además. Google asegura que esta nueva función ya está en desarrollo para su aplicación en negocios para usuarios de Workspace. Las pruebas comenzarán más adelante este año. Sí, por lanzamiento la traducción en tiempo real en Meet será para usuario de los niveles de pago de la IA de Google. Sin embargo, es una muestra del alcance que ha logrado Google con su IA,y es posible que en el futuro esta nueva función se expanda a todos los usuarios sin necesidad de pago. La traducción en tiempo real en Meet es solo una de las grandes novedades que se han presentado durante la conferencia Google I/O 2025. Lo que queda claro es que la IA es todo para Google, y quiere que la usemos para todo. Nota tomada de: Xataka México

Leer más

La respuesta inesperada de la inteligencia artificial: Qué música prefieren las personas inteligentes y por qué

¿Puede tu lista de reproducción decir algo sobre tu inteligencia? ChatGPT fue consultado sobre el vínculo entre gustos musicales y capacidad cognitiva, y su respuesta —basada en estudios psicológicos— sugiere que la clave no está en el género, sino en la complejidad emocional y estética que cada oyente busca. Desde hace décadas, psicólogos y científicos han investigado la relación entre música e inteligencia. ¿Qué nos revela lo que escuchamos? En una conversación con la IA, se planteó la clásica pregunta: ¿cuál es el género musical favorito de las personas inteligentes? La IA respondió con datos, estudios y un enfoque que va más allá de los estereotipos. Estilos musicales, rasgos de personalidad y curiosidad intelectual ChatGPT señaló que los gustos musicales están íntimamente ligados a la personalidad, y que uno de los modelos más aceptados en psicología —el de los Cinco Grandes Rasgos— revela una conexión clave: la apertura a la experiencia. Este rasgo, vinculado a la creatividad, la imaginación y la curiosidad, está fuertemente relacionado con niveles más altos de inteligencia. Según esta perspectiva, las personas con alta apertura tienden a disfrutar de géneros musicales que presentan complejidad técnica, riqueza emocional o estructuras poco convencionales. Entre los más elegidos están la música clásica, el jazz, el rock progresivo, el indie, la electrónica ambiental o el folk experimental. No se trata de que estos estilos sean «mejores», sino de que despiertan un mayor interés intelectual y sensorial. Más que elegir una música por moda o costumbre, las personas con mayor capacidad cognitiva buscan sonidos que los desafíen, que los conmuevan o que les propongan nuevas formas de entender el arte y las emociones. ¿Hay géneros musicales que predicen mayor inteligencia? Uno de los estudios más conocidos en esta línea fue el realizado por Virgil Griffith en 2009. Cruzó datos de preferencias musicales en redes sociales universitarias con puntajes en los exámenes SAT. El resultado mostró que quienes escuchaban a Beethoven o música clásica tendían a obtener mejores resultados académicos, mientras que quienes preferían el pop comercial, el reguetón o el rap obtenían puntajes más bajos. No obstante, el mismo estudio fue cuestionado por su falta de control sobre factores como el nivel socioeconómico, el entorno cultural o el acceso a la educación. Asociar un género musical con un nivel de inteligencia puede llevar a generalizaciones injustas e incluso a prejuicios clasistas. En realidad, lo que distingue a muchas personas inteligentes no es el género que eligen, sino su disposición a descubrir nuevas formas de expresión. La verdadera señal de inteligencia musical podría no estar en lo que se escucha, sino en cómo y por qué se lo hace. Nota tomada de: Gizmodo

Leer más

Google quiere que Gemini sea una experiencia personalizada para cada usuario, con una condición: conocer nuestro historial de búsquedas

Un Gemini que se adapte a las preferencias de los usuarios. Esa es la idea más reciente de Google, que busca convertir su asistente de IA en un producto más útil, capaz de resolver preguntas generales y solicitudes, pero también de personalizarse con los datos de cada usuario. De acuerdo con la compañía, este «Gemini personalizado» es una nueva capacidad experimental de su modelo Gemini 2.0 Flash Thinking, diseñado para conectarse con las aplicaciones de Google y ofrecer respuestas más relevantes para el consumidor. La integración comenzará con el Buscador, lo que permitirá brindar una experiencia más personalizada basada en el historial de búsqueda del usuario. Este es solo el primer paso. En los próximos meses, Google planea extender la personalización a otras aplicaciones y servicios, como Fotos y YouTube. Con esto, la compañía busca que Gemini se convierta en «un compañero aún más inteligente», capaz de establecer conexiones y ofrecer respuestas alineadas con los gustos del usuario. Cómo activar Gemini personalizado Para habilitar esta integración, es necesario seguir un proceso específico. En las aplicaciones de Gemini, se debe acceder al menú desplegable y seleccionar la opción «Personalización (experimental)» para conectar el modelo con el historial de búsqueda. Así, cuando el usuario ingrese una instrucción, la IA podrá analizar si el historial disponible puede ayudar a mejorar la respuesta. Google asegura que el usuario mantiene el control total sobre su información y los permisos de acceso, con la opción de desconectar la IA del historial en cualquier momento. El uso de estos datos no será constante. Solo se emplearán cuando los modelos de razonamiento avanzado de Google determinen que son «realmente útiles». Hasta ahora, quienes han probado la función consideran que es beneficiosa para tareas como la lluvia de ideas y la obtención de recomendaciones personalizadas. Por ahora, Gemini personalizado está disponible como una función experimental, aunque con ciertas restricciones. No podrá ser utilizada por menores de 18 años, ni en entornos Workspace o Education. Inicialmente, no tendrá límites de uso, pero Google advierte que esto podría cambiar en el futuro. La función estará disponible para los suscriptores de Gemini y Gemini Advanced en la web, y más adelante en dispositivos móviles. El servicio podrá utilizarse en más de 40 idiomas y en casi todos los países del mundo, con excepción de los que forman parte del Espacio Económico Europeo, Suiza y Reino Unido. Nota tomada de: Xataka México

Leer más

Manus es la nueva sensación de la IA china tras DeepSeek. Está generando tantas expectativas como dudas

La semana pasada se empezaron a oír voces en el segmento de la IA. Teníamos teóricamente un nuevo fenómeno DeepSeek. Se trataba de Manus, un teórico agente de IA que planteaba opciones especialmente llamativas. Sin embargo, en redes sociales han aparecido dudas y suspicacias sobre la capacidad real de este modelo. La incógnita sobre su valor real está ahí. Manus no es un agente de IA. Sus responsables en su sitio web oficial, es «un agente de IA general que conecta ideas con acciones: no solo piensa, entrega resultados». En realidad es más un modo «investigación profunda» —como el ‘Deep Research’ de OpenAI— sobre los datos que le demos. Así, Manus es teóricamente capaz de crearte un detallado plan de viaje de 7 días por Japón, ayudarte a realizar un análisis profundo del valor de las acciones de Tesla, crear para ti una presentación para una clase sobre la ley de conservación del momento, por ejemplo. Expectativas por todo lo alto. Uno de los responsables de producto en Hugging Face lo calificó como «la herramienta de IA más impresionante que he probado jamás». Su servidor oficial de Discord ha logrado atraer a casi 170.000 usuarios desde su creación hace una semana. La expectación es notable, pero como explican en TechCrunch, hay dudas sobre su verdadera capacidad. Manus se basa en Claude y Qwen. Hay usuarios que ya han indicado que Manus parece no haber sido creado de cero, y al parecer está totalmente basado en modelos variados como Claude 3.7 y Qwen (Alibaba). Uno de sus cofundadores, Yichao «Peak» Yi, confirmaba que en efecto se basan en otros productos y ellos son una capa que se apoya en dichos modelos. En el vídeo de presentación Yichao destacó que en algunos benchmarks Manus era superior a Deep Research y a Operator, los productos de OpenAI. ¿Lo es? Errores e inconsistencias. Algunos expertos como Alexander Doria, cofundador de la startup de IA Pleias,  han indicado que Manus comete errores y bucles infinitos al usarlo. Otros señalan cómo comete errores con preguntas con respuestas claras y no cita fuentes de forma consistente. Beta por invitación. Por ahora no es posible acceder a las opciones de Manus, y solo es posible usarlo si algún otro usuario te invita. En TechCrunch han logrado tener acceso, y las pruebas realizadas, explicaba el editor que lo probó, «no han sido especialmente positivas». Ninguna de las tareas agénticas que probó —reservar mesa en un restaurante, sacar tickets de avión— funcionó. En The Register también han tenido acceso y no han quedado nada impresionados con los resultados». Probaron a crear un clon de Mario que resultó ser bastante terrible, por ejemplo. Otros usuarios que sí lo han probado o bien lo ensalzan o bien creen que a pesar de sus luces y sombras es un producto especialmente prometedor. De momento esto no es un DeepSeek. Lo cierto es que la rápida popularidad de Manus contrasta con la de DeepSeek, que estuvo disponible desde el primer momento como desarrollo Open Source que cualquiera podía descargar y usar. Puede que la empresa quiera aprovechar precisamente esa expectación que generan las betas con acceso por invitación y que prefieran evitar gastos mayores de infraestructura. Nota tomada de: Xataka

Leer más

Alexa+ es la evolución con inteligencia artificial del popular asistente de Amazon

Sabíamos que Amazon estaba desarrollando una nueva versión de Alexa, su asistente digital, potenciado con inteligencia artificial. Después de una larga espera, finalmente ha llegado esta variante mejorada en todos los aspectos: Alexa+. Este nuevo asistente es capaz de entender el contexto de las solicitudes de los usuarios y crear rutinas personalizadas con solo pedirlo. Funciona de manera similar a ChatGPT, Gemini o Siri, pero con una diferencia clave: su integración directa con todo el ecosistema de dispositivos conectados a la plataforma de Amazon. Entre sus funciones destacan la posibilidad de realizar compras, enviar invitaciones a eventos y recordar detalles como preferencias de películas o restricciones dietéticas. Además, permite reservar cenas a través de plataformas como Yelp y consultar la disponibilidad de lugares para eventos como conciertos. Alexa+ también puede ayudar en el estudio, ya que permite compartir documentos, correos electrónicos, recetas familiares y materiales educativos. A partir de estos, la IA extrae información relevante para generar resúmenes, agregar eventos al calendario o responder preguntas específicas. Otra de sus mejoras es la forma de interactuar con los usuarios. Ahora basta con decir «Alexa» para activar el asistente, que también cuenta con capacidades de visión artificial para tomar y analizar imágenes, similar a la tecnología de ChatGPT. Además de controlar dispositivos inteligentes y crear rutinas, Alexa+ ofrece mejoras en el apartado musical. No solo permite encontrar canciones sin conocer el título o el artista, sino que también puede reproducirlas en distintas habitaciones con un simple comando de voz. En cuanto a Prime Video, facilita la búsqueda de escenas específicas mediante referencias a actores o personajes sin necesidad de adelantar manualmente. El asistente «de próxima generación» de Amazon Según Amazon, Alexa+ ofrece «respuestas detalladas adaptadas a las necesidades de los usuarios» y mantiene conversaciones naturales y fluidas, ya que comprende el contexto de cada interacción sin necesidad de utilizar un lenguaje preciso. Además, el asistente aprende de cada uso, lo que optimiza su desempeño según las preferencias del usuario. Alexa con IA llega acompañada de una nueva interfaz para los dispositivos Echo Show y estará disponible en altavoces, aplicaciones móviles y una nueva plataforma web. Gracias a su memoria integrada, podrá recordar conversaciones previas para ofrecer una experiencia más personalizada. Para su funcionamiento, Alexa+ emplea la tecnología de Amazon Bedrock, lo que le permite acceder a grandes modelos de lenguaje (LLM), como Nova, y a modelos de terceros, como los desarrollados por Anthropic, la empresa detrás de Claude. El sistema selecciona el modelo más adecuado según cada tarea. Su base de conocimientos se actualiza constantemente con información de fuentes confiables, como AP, Reuters, Time y USA Today, para así garantizar respuestas rápidas y precisas sobre diversos temas. Precio y disponibilidad de Alexa+ Amazon ha anunciado que Alexa+ tendrá un precio de 19.99 dólares al mes, aproximadamente 400 pesos, pero será gratuito para los miembros de Prime. El despliegue inicial se realizará en Estados Unidos en las «próximas semanas» y, en los meses siguientes, comenzará a llegar en «oleadas» al resto de catálogo de Amazon, específicamente para los Echo Show 8, 10, 15 y 21. Nota tomada de: Xataka México

Leer más

Las 5 mejores canciones de rock capaces de producir fervor; Nirvana en el listado

Créditos: GettyImages La inteligencia artificial reveló un listado con los mejores temas rockeros que puede escuchar para sentirse fervoroso. El rock es mucho más que un simple género musical. Este tipo de música se ha convertido en una forma de expresión cultural capaz de influir, no solo en los pensamientos y actuaciones de los fans, sino también en sus sentimientos. Infinidad de estudios, han demostrado que la música tiene la capacidad de despertar cierto tipo de emociones como el amor, el odio, la tristeza, la euforia y hasta el fervor. En el caso del rock, al ser un género musical que se caracteriza por su potencia y fuertes ritmos, sus canciones suelen estar asociadas a sentimientos positivos como la alegría, el placer, la euforia, la tranquilidad, entre otros. A través de sus melodías y ritmos vibrantes, esta música puede evocar una amplia gama de emociones, que van desde la nostalgia hasta la euforia absoluta. En este sentido, hay canciones de rock que logran encender una chispa de entusiasmo y pasión en quienes las escuchan, generando gran fervor. Las 5 Canciones de rock que despiertan fervor En este sentido, canciones con ritmos intensos, estribillos poderosos y una ejecución instrumental electrizante tienen la capacidad de hacer que el público se sienta emocionado, motivado y lleno de adrenalina. Si está buscando canciones que eleven su energía y lo hagan sentir una emoción intensa, aquí le presentamos un listado con cinco de los temas más fervorosos del rock, según la inteligencia artificial. Nota tomada de: Radio acktiva

Leer más

DeepSeek: cómo usarlo desde el celular en México y qué puede hacer

Un nuevo competidor ha llegado a plantarle cara a ChatGPT y Gemini. Se llama DeepSeek, es gratis y quiere ser la inteligencia artificial avanzada que usemos en el día a día. Lo curioso, es que aunque la IA es de origen chino, supera a ChatGPT en algunas pruebas de rendimiento, lo que le ha valido colarse en el top de aplicaciones más descargadas de la App Store de Apple en Estados Unidos. Lo mejor es que también puedes utilizarlo desde México, y aunque está disponible en PC y tiene su propia app, por el momento solo puedes utilizarlo desde el navegador de tu celular. Aquí en Xataka Basics México te contamos cómo puedes usar DeepSeek y para qué sirve. Qué es DeepSeek y qué puede hacer Al igual que otras inteligencias artificiales, DeepSeek es un modelo avanzado que mezcla 671 millones de parámetros que le permite tener un mayor rendimiento al utilizar menos recursos que otras IA. Además, destaca por ser de código abierto, lo que significa que cualquier persona puede saber como funciona internamente y cualquiera puede usarla con total libertad. A diferencias de otras IA, DeepSeek tampoco requiere ninguna suscripción, se puede probar de forma gratuita. En cuanto a su funcionamiento, es igual que el de otros modelos con IA avanzada. Es decir, es un chatbot al que le puedes preguntar cualquier cosa y éste responderá en tiempo real. Su característica principal es que todas las respuestas pueden ser «razonadas» gracias a su modelo de lenguaje, pero también puede activarse solo para buscar información presente en la web. Igual que otras IA, DeepSeek puede resolver problemas matemáticos, explicar temas complejos, extraer información de documentos, recomendar series o películas, generar ideas, textos, plantillas, revisar la ortografía, preguntarle datos curiosos y prácticamente cualquier cosa que se te ocurra. Cómo usar DeepSeek desde cualquier celular en México Acceder a DeepSeek es muy sencillo, solo tienes que entrar a su página web oficial y registrarte para comenzar a usar esta IA. Como mencionamos al principio, DeepSeek tiene su propia aplicación que puede ser descarga desde su página oficial y también funciona directamente desde la web. Sin embargo, por el momento, los servidores de la compañía están lentos y arroja un error si quieres utilizara en PC o en su propia app. Por esta razón, es más fácil utilizarla desde el navegador del celular, pues desde cualquier smartphone podrás registrarte sin problemas utilizando una cuenta de Google, así podrás comenzar a utilizar la IA. Como verás, la interfaz es muy similar a la de cualquier buscador, aquí solo debes escribir la pregunta y esperar a que el chatbot responda. Otro punto a destacar es que aunque el chatbot está en idioma inglés o chino, (y funciona mejor en estos idiomas) también puedes escribir en idioma español sin ningún problema, pues la IA puede reconocer el texto y traducirlo en tiempo real.  Con DeepSeek los comandos o prompts son fáciles de ejecutar y su límite será la imaginación o curiosidad que tu tengas. Al momento de utilizarlo recuerda también que puedes activar o desactivar los filtros de función: «DeepThink R1», la cual brinda respuestas más inteligentes, o «Search», para obtener información directamente desde la web. Listo. Ahora sabes qué es DeepSeek, cómo funciona, qué puede hacer y cómo usarlo desde cualquier navegador web en smartphones. Recuerda que la clave para que cualquier IA sea más eficiente es preguntar o dar comandos más detallados, así las respuestas serán más concisas y podrás sacarle mayor provecho. Nota tomada de Xataka México

Leer más

El borrador mágico llega a iPhone: así se editarán imágenes con inteligencia artificial

La función de IA permitirá borrar objetos y personas con un solo toque. (REUTERS/Loren Elliott/File Photo) Apple está preparando la llegada de una nueva herramienta de inteligencia artificial que busca ampliar las opciones de edición de los usuarios de iPhone. Esta función, denominada Clean Up, forma parte de las últimas versiones beta de iOS 18.1 e iPadOS 18.1, por lo que por ahora está en etapa de desarrollo. El objetivo de esta opción es permitir a los usuarios eliminar objetos no deseados de sus fotos con un simple toque en la pantalla, algo que ya vienen implementando otras marcas como Google y Samsung, a través de la IA. Cómo borrar objetos de fotos en iPhone Esta herramienta de edición fotográfica utiliza avanzados modelos de aprendizaje automático para identificar y eliminar elementos indeseados en las imágenes. Con Clean Up, Apple se une al creciente número de aplicaciones que están integrando IA en sus funcionalidades para mejorar la calidad y precisión de la edición fotográfica, compitiendo directamente con herramientas ya establecidas como el Borrador Mágico de Google. El funcionamiento de esta herramienta se basa en dos opciones principales para los usuarios: la selección automática y la selección manual. En el modo de selección automática, la aplicación Fotos identifica automáticamente los elementos de fondo que podrían ser eliminados, como postes de luz, personas que no forman parte del sujeto principal de la imagen o cualquier otro objeto que distraiga de la composición deseada. }La función de IA permitirá borrar objetos y personas con un solo toque. (brandonbutch/Threads) Una vez identificados, estos elementos pueden ser borrados con un solo toque. Por otro lado, la selección manual permite a los usuarios tener un control más preciso sobre el proceso, rodeando los objetos o personas que desean eliminar, lo que proporciona un mayor nivel de personalización en la edición de la fotografía. Una de las características de Clean Up es su capacidad no solo para eliminar los objetos seleccionados, sino también para borrar sus sombras y reflejos, lo que contribuye a un resultado más limpio y natural. Apple ha puesto un gran énfasis en asegurar que las imágenes editadas mantengan su integridad visual, minimizando la distorsión y preservando la calidad original de la foto. Aunque Clean Up ya está disponible en las versiones beta de iOS 18.1 para desarrolladores, su acceso está actualmente restringido. Apple ha decidido que, por el momento, solo los desarrolladores certificados tendrán la oportunidad de probar esta herramienta antes de su lanzamiento oficial, previsto para octubre de 2024, aproximadamente un mes después del lanzamiento del iPhone 16. La función de IA permitirá borrar objetos y personas con un solo toque. (APPLE) Esta estrategia de lanzamiento limitada no es nueva para Apple; la compañía suele utilizar a los desarrolladores como un primer grupo de prueba para identificar y solucionar posibles problemas antes de que una nueva función sea liberada al público general. En cuanto a su disponibilidad geográfica, Apple Intelligence, la tecnología que impulsa Clean Up, estará inicialmente disponible solo en inglés y exclusivamente en Estados Unidos. Este despliegue limitado responde a problemas legislativos que han llevado a Apple a bloquear temporalmente la función en Europa, donde la compañía enfrenta desafíos regulatorios más estrictos en cuanto a la implementación de nuevas tecnologías basadas en IA. Para los usuarios en otros países, especialmente en Europa, esto significa que tendrán que esperar o encontrar soluciones alternativas para probar Clean Up. Algunos podrían intentar instalar la versión beta de iOS 18.1 mediante ajustes en la configuración del dispositivo, pero la empresa ha desaconsejado esta práctica, recomendando que solo los desarrolladores certificados instalen esta beta, dado que las versiones preliminares pueden contener errores o no estar completamente optimizadas. La función de IA permitirá borrar objetos y personas con un solo toque. (Foto: Apple) En cuanto a la compatibilidad, la herramienta estará disponible en los dispositivos más recientes de Apple, comenzando con el iPhone 15 Pro y extendiéndose a los iPad y Mac equipados con el chip M1 o versiones posteriores. Esta limitación en la compatibilidad se debe a la necesidad de un rendimiento de procesamiento potente, que estos dispositivos más nuevos son capaces de ofrecer, garantizando que la experiencia de uso de Clean Up sea fluida y eficaz. Nota tomada de: Infobae

Leer más

Xiaomi vende tan barato sus autos que pierde 180,000 pesos por cada uno que entrega: faltan años para ganar dinero

La incursión de Xiaomi en el mercado de vehículos eléctricos ha sido impresionante y arriesgada. A pesar de su éxito inicial en ventas, con casi 90,000 pedidos registrados en sus primeras 24 horas, la compañía enfrenta un desafío económico significativo. En su primer trimestre completo de entregas, Xiaomi reportó una pérdida de 252 millones de dólares, lo que se traduce en 9,200 dólares por cada modelo SU7 vendido, aproximadamente 181,052 pesos, informa Business Insider. Una cifra alta si pensamos que el auto tiene un precio base de 30,000 dólares, es decir 590,609 pesos, más barato que un Tesla Model 3 en México. Sin embargo, Xiaomi no ve estas pérdidas como un retroceso, sino como una inversión en el futuro. Con un margen de beneficios bruto superior al 15%, la empresa está en camino de recuperar sus costos, si logra aumentar significativamente su volumen de ventas. El CEO de Xiaomi, Lei Jun, ha dejado claro quela empresa está comprometida a largo plazo con su división de vehículos eléctricos, con planes de inversión de 10,000 millones de dólares en los próximos 10 años, reposta Reuters. Este enfoque audaz busca establecer a Xiaomi como un competidor serio en un mercado dominado por gigantes como Tesla, NIO o BYD. La compañía también ha tomado medidas para aumentar su capacidad de producción, ahora opera en turnos dobles en su fábrica y estableció un objetivo de 100,000 entregas para noviembre, según CnEVPost. A pesar de las pérdidas actuales, Xiaomi se mantiene optimista, y confía en que las ventas anuales de 300,000 a 400,000 vehículos permitirán alcanzar el punto de equilibrio, incluso si solo vende sus autos en China. En el segundo trimestre, Xiaomi logró un aumento del 32% en sus ventas totales y alcanzó los 88,000 mil millones de yuanes . Además, sus ingresos netos crecieron un 38%, lo que refleja un sólido rendimiento en los otros sectores tecnológicos donde la marca tiene presencia como el mercado de celulares. ¿Qué dice dice Estados Unidos sobre el éxito de Xiaomi? Los analistas de Citibank pronostican que Xiaomi comenzará a obtener ganancias en su división de vehículos eléctricos para 2026, con ventas proyectadas de 260,000 unidades. Mientras tanto, la compañía ampliará su cartera de productos, con planes para lanzar más modelos eléctricos que complementen al SU7. Desde Nikkei Asia también comentan que Xiaomi no solo busca competir en términos de precio, sino también en innovación. La empresa ha prometido características avanzadas como capacidades de conducción autónoma y un asistente de inteligencia artificial, diseñado para ofrecer una experiencia de conducción sin precedentes en el mercado chino. Algo que no tiene nada contento al Departamento de Defensa de Estados Unidos. Xiaomi está dispuesto a asumir pérdidas a corto plazo para asegurar su lugar en el futuro de la movilidad eléctrica. Con una combinación de innovación, capacidad de producción y una visión a largo plazo, la compañía podría preparar el terreno para convertirse en un jugador clave en la industria automotriz global en los próximos años. Nota tomada de: Xataka México

Leer más

Apple Intelligence se retrasa y no estará lista para el lanzamiento del iPhone 16: llegará después en iOS 18.1

Apple Intelligence no llegará con el iPhone 16 y iOS 18. Bloomberg reporta que el desarrollo de las funciones de IA de Apple se retrasó y no llegarán con el lanzamiento de las nuevas versiones de iOS y iPadOS previstas para septiembre, junto con la nueva familia iPhone 16. En cambio, Apple Intelligence llegará en una actualización planeada para octubre, según fuentes con conocimiento del tema consultadas. Esto quiere decir que Apple Intelligence llegará algunas semanas después del lanzamiento inicial de iOS 18 en septiembre, confirma Mark Gurman. Sin embargo, a pesar de que el lanzamiento oficial se retrasa, los desarrolladores tendrán acceso anticipado a Apple Intelligence «tan pronto como esta semana» para comenzar con pruebas. El acceso será mediante las versiones beta de iOS 18.1 y iPadOS 18.1, asegura el reporte, en lo que se describa como una «estrategia atípica» para Apple. Aparentemente son varias razones por las que Apple Intelligence se retrasa. Apple quiere garantizar un lanzamiento fluido de su nueva IA, y para eso necesita el apoyo de los desarrolladores para probar las funciones a escala más amplia. Además, también hay preocupaciones sobre la estabilidad de Apple Intelligence, una razón más por la cual se separó su llegada del lanzamiento de iOS 18. Aún así, el reporte de Gurman dice que aunque Apple Intelligence llegue junto con iOS 18.1 y iPadOS 18.1, aún le faltarán algunas funciones. Estas incluyen los cambios más significantes a Siri, como la habilidad de usar información contextual del dispositivo para responder consultas basadas en el contenido de la pantalla. El plan de Apple es lanzar todas las funciones de Apple Intelligence a través de múltiples actualizaciones de iOS 18 a lo largo de los últimos meses de 2024 y la primera mitad de 2025, según Bloomberg. Apple espera que Apple Intelligence sea el factor decisivo para impulsar las ventas de los nuevos iPhone 16. Entre sus funciones más importantes están la integración de una Siri más inteligente y capaz de resolver preguntas y consultas basadas en información contextual del contenido en pantalla. También se integra la edición generativas de fotos y la capacidad para redactar textos, como notas o correos electrónicos, de manera inteligente. Sin embargo, además del iPhone 16, no todos los modelos anteriores recibirán Apple Intelligence, a pesar de que sí se actualizarán a iOS 18. iOS 18 ya está en fase de beta pública y se espera su lanzamiento junto con los nuevos iPhone 16, como cada año. Según este reporte, Apple Intelligence tardará un poco más en llegar, y además anteriormente se dijo que habrá una  «lista de espera» para probar las nuevas funciones de IA, es decir que su lanzamiento sería una previa muy limitada. Nota tomada de: Xataka México

Leer más