Muchos dicen que la IA no se usará para el mal. Alguien le insistió y terminó hackeando el INE y SAT

La inteligencia artificial vuelve a estar en el centro de un escándalo de ciberseguridad. Un informe de Gambit Security reveló que un hacker utilizó Claude, el chatbot de Anthropic, para ejecutar una campaña de intrusiones contra dependencias públicas mexicanas y robar información altamente sensible. El ataque, que se extendió durante varias semanas, habría comprometido al SAT y al INE, además de registros civiles y gobiernos estatales. En total, se estima que fueron sustraídos 150 GB de datos, incluyendo millones de registros de contribuyentes y votantes. Un hacker usó a Claude para robar 150 GB de datos del gobierno mexicano De acuerdo con la investigación realizada por Bloomberg, el atacante instruyó a Claude en español para que actuara como un “hacker experto”, capaz de detectar vulnerabilidades y generar scripts para explotarlas. El proceso fue iterativo, es decir, cuando la IA pedía más información, el operador consultaba otros modelos para continuar con el ataque, como ChatGPT. El resultado fue una campaña sostenida que explotó al menos 20 fallas específicas en sistemas gubernamentales. Los investigadores señalan que el objetivo parecía ser acumular la mayor cantidad posible de identidades de empleados públicos y ciudadanos, aunque aún no está claro qué uso se dio a esa información. Datos personales de miles de agentes de seguros quedaron expuestos tras el nuevo hackeo en México Qué datos del gobierno mexicano fueron comprometidos El balance es preocupante: se reporta el robo de documentos vinculados a 195 millones de registros fiscales, además de información de votantes, credenciales de empleados y archivos del registro civil. Entre las instituciones afectadas se mencionan el SAT, el INE, gobiernos estatales como Jalisco, Michoacán y Tamaulipas, así como el registro civil de la Ciudad de México y la empresa de agua y drenaje de Monterrey. La magnitud del ataque evidencia una vez más la fragilidad de las bases de datos públicas en México, que en los últimos meses han sido blanco constante de filtraciones y hackeos. Por ejemplo, hace poco se reportó un presunto ataque masivo atribuido al grupo Chronus, con impacto en al menos 20 universidades públicas del país. Ahora, durante el último periodo vacacional, una imagen difundida en X expuso que al menos cinco de los más de 100,000 sistemas informáticos de la UNAM habían sido comprometidos. Este hecho confirma que las vulnerabilidades no se limitan únicamente a dependencias federales, sino que también alcanzan a instituciones educativas, académicas e incluso empresas privadas. De hecho, bajo la legislación, varias compañías se vieron afectadas el mes pasado tras la filtración del padrón electoral, lo que evidencia que el alcance de los ataques es cada vez más amplio y que la seguridad digital en México enfrenta un escenario de riesgo constante. La respuesta de Anthropic ante el hackeo Lo más llamativo es que Claude inicialmente advirtió al usuario sobre sus intenciones maliciosas, pero tras insistir logró que la IA ejecutara miles de comandos en las redes oficiales. Según Bloomberg, Anthropic confirmó que interrumpió la actividad y bloqueó las cuentas implicadas. La compañía aseguró que sus modelos más recientes incluyen mecanismos para detectar y frenar usos indebidos, aunque este caso demuestra que los atacantes pueden encontrar formas de evadir las barreras de seguridad. Qué es Claude Code y qué puede hacer esta herramienta para programar con inteligencia artificial desde la terminal de tu ordenador Qué dijeron las autoridades mexicanas al respecto Por su parte, el INE negó haber sufrido accesos no autorizados y afirmó que reforzó su estrategia de ciberseguridad. El gobierno de Jalisco también rechazó haber sido vulnerado, mientras que otras dependencias no respondieron de inmediato. Según Bloomberg, la Agencia Digital Nacional señaló que la protección de datos es una prioridad, aunque no comentó directamente sobre el ataque. En realidad, la falta de claridad en las respuestas oficiales deja dudas sobre el alcance real del incidente. Lo cierto es que el reporte de Gambit apunta a un robo masivo de información que podría tener consecuencias a largo plazo en materia de seguridad digital y confianza ciudadana. Una empresa de seguridad en Estados Unidos pensó que había contratado a un ingeniero, pero en realidad fue un hacker norcoreano Una tendencia preocupante El caso del hackeo al gobierno mexicano no es el primero en el que Claude aparece como protagonista. Apenas ayer contamos la historia de Sammy Azdoufal, un ingeniero que utilizó la misma herramienta para intentar controlar su aspiradora DJI Romo con un mando de PS5. Lo que parecía un experimento casero terminó convirtiéndose en un acceso accidental a más de 7,000 robots aspiradores en 24 países, todos con cámaras y micrófonos activos. Mientras empresas como Anthropic y OpenAI buscan reforzar sus modelos con defensas más sofisticadas, los ciberdelincuentes también aprovechan estas mismas tecnologías para ampliar su capacidad operativa. Lo que antes parecía exclusivo de hackers con conocimientos avanzados ahora se facilita con herramientas de IA generativa. El resultado es un escenario donde la frontera entre productividad y cibercrimen se vuelve, lamentablemente, cada vez más difusa. Nota tomada de: Xataka México

Leer más

La escasez de memoria RAM no terminará pronto: este CEO cree que durará hasta 2030

La memoria RAM y el almacenamiento NAND se han convertido en los recursos más codiciados de la era de la Inteligencia Artificial. Lo que comenzó en 2025 como un encarecimiento progresivo de la RAM ya afecta también a los discos duros, y ahora amenaza con provocar un colapso en la industria de la electrónica de consumo. El director ejecutivo de Phison Electronics, Pua Khein-Seng, advierte que muchas empresas pequeñas y medianas podrían desaparecer o abandonar líneas de productos enteras antes de que termine 2026. Phison no es un actor menor: la compañía taiwanesa fabrica controladores y unidades SSD completas que otras marcas comercializan bajo su nombre. Por eso, las declaraciones de su CEO han encendido las alarmas en el sector. Según explicó en una entrevista reciente con Era News, la escasez de DRAM y NAND no solo continuará, sino que podría extenderse hasta 2030 o incluso hasta 2035, con consecuencias directas en smartphones, PCs y televisores. La crisis de RAM y NAND provocada por la IA podría cerrar cientos de empresas de electrónica antes de 2026 La advertencia de Phison se centra en dos piezas fundamentales: la memoria RAM y la memoria flash NAND. Estos componentes son esenciales para cualquier dispositivo moderno, desde teléfonos hasta consolas, y su precio se ha disparado en los últimos meses. Y es que, de acuerdo con Pua Khein-Seng, los fabricantes de chips ahora exigen pagos anticipados de hasta tres años, una condición que muchas empresas pequeñas no pueden cumplir. Según Khein-Seng, el impacto será especialmente duro en el mercado de smartphones, donde la memoria representa más del 20% del costo de materiales. Se estima que las ventas globales de teléfonos podrían caer entre 200 y 250 millones de unidades este año. En comparación, los servidores y centros de datos sufrirán menos, ya que la memoria supone apenas entre el 5 y el 6% de su factura de componentes. La situación se complica aún más con la llegada de proyectos de gran escala en IA. Nvidia planea producir millones de unidades de sus sistemas Vera Rubin, cada uno con requisitos descomunales: más de 20 TB de almacenamiento SSD y hasta 576 GB de RAM por placa. Según Khein-Seng, solo esa demanda podría consumir cerca del 20% de la producción mundial de NAND en 2026, dejando a los fabricantes de electrónica de consumo sin margen de maniobra. GPU NVIDIA Rubin El encarecimiento ya es evidente. Como detalla TechPowerUp, chips de memoria eMMC de 8 GB que costaban apenas 1.5 dólares ahora superan los 20 dólares, y en sectores como el automotriz se acercan a los 30. Este aumento de precios amenaza con dejar fuera de juego a empresas que no pueden trasladar esos costos al consumidor final, es decir, las pequeñas y medianas. Intentos de solución y paradojas del mercado Algunos países han buscado alternativas para mitigar la crisis. En China, fabricantes como CXMT y YMTC han ganado terreno con el respaldo del gobierno, ofreciendo módulos de memoria más accesibles para su mercado local. Phison, por su parte, propone una tecnología llamada aiDAPTIV+, que combina pequeñas cantidades de DRAM con memoria flash optimizada para ampliar la capacidad de las GPU sin depender de costosas tarjetas HBM o GDDR. Sin embargo, esta solución no es definitiva. Aunque aiDAPTIV+ busca aliviar la presión sobre los sistemas de IA y reducir costos, la paradoja persiste: la misma tecnología que promete el futuro digital está generando un presente marcado por la escasez y el encarecimiento del hardware. La gran incógnita es cuál será el próximo componente esencial que se convierta en víctima del auge de la Inteligencia Artificial. Nota tomada de: Xataka México

Leer más

Google ya convierte tus fotos en videos con IA: así funciona la nueva herramienta de Gemini que puedes probar en México

La inteligencia artificial de Google para crear videos, Veo 3, estrena una nueva capacidad que permite convertir fotos en videoclips dinámicos de ocho segundos con sonido incluido a través de Gemini. Según Google, esta novedad busca que las capacidades de generación de video sean «más accesibles» para los usuarios de todo el mundo. A siete semanas de su lanzamiento, esta tecnología ya ha producido más de 4 millones de videos con Veo 3, tanto en la app de Gemini como en Flow. Estos incluyen desde historias en formato de influencer y videos ASMR de sucesos imposibles, como lava que se enfría, hasta clips con personas de la tercera edad que hacen albures. Así se pueden hacer videos a partir de imágenes con Veo 3 Google indica que, para convertir las fotos a video, solo se debe seleccionar «Videos» en el menú de herramientas del cuadro de diálogo de Gemini y subir una imagen. Después, es necesario describir la escena y las instrucciones de audio para que la imagen fija se transforme en un video dinámico. Google señala que esto permite, por ejemplo, animar objetos cotidianos, dar vida a dibujos y pinturas o, simplemente, añadir movimiento a escenas de la naturaleza. Una vez completado el proceso, el clip se puede compartir o descargar. Por el momento, la compañía aclara que la función de conversión de foto a video está disponible únicamente para los suscriptores de Google AI Pro y Ultra en todo el mundo. Se puede probar en la página oficial de Gemini y también en Flow para la creación de películas con IA, aunque también es posible utilizarla con el plan AI Pro de forma gratuita durante un mes. Después de este periodo, el servicio tiene un costo de 395 pesos mensuales. Google indica que estos contenidos de IA cuentan con varios controles de seguridad para que la generación de videos «sea una experiencia óptima». La compañía utiliza un «equipo rojo» que prueba los sistemas de forma proactiva, soluciona problemas antes de que surjan y evita la creación de contenido indebido. Al igual que otros contenidos generados por la IA de Google, los videos de Veo 3 y Flow incluyen una marca de agua visible para indicar su origen. Además, incorporan una segunda marca digital invisible, SynthID, que permite identificar claramente la procedencia del material. La mejora de Veo 3 Veo 3 se presentó durante el Google I/O de 2025, donde se mostraron las capacidades de esta tecnología para la generación de video. La principal novedad es que los clips de ocho segundos incluyen sonido sincronizado directamente con el material. Algunos de los resultados que han generado los usuarios incluyen videos en formato de blog de videojuegos, con monstruos que cuentan su día a día como youtubers, y clips ASMR de objetos como bolas de cristal. También destaca la producción de contenidos «noticiosos» o entrevistas, un formato popular en México. En estos, los personajes, como figuras de adultos mayores, realizan acrobacias inverosímiles o emiten comentarios subidos de tono, con albures y palabras altisonantes. Además, Veo 3 se puede utilizar en Canva, que se presenta como la opción más económica para generar videos de ocho segundos con audio sincronizado, gracias a una interfaz dedicada en su plataforma. Nota tomada de: Xataka México

Leer más

Google cambia las videollamadas para siempre con traducción en tiempo real en Meet

Google Meet ya tiene traducción en tiempo real. En la conferencia para desarrolladores Google I/O, la compañía presentó una nueva función de traducción en tiempo real en su plataforma de videollamadas, e incluso reveló una pequeña muestra de su funcionamiento. En una llamada entre dos mujeres, al activar la traducción en tiempo real en Meet, una habló en inglés y la otra escuchó sus frases en español, y viceversa. La otra habló en español y su interlocutora escuchó en inglés. Según la demostración, la traducción en tiempo real es bastante acertada, pero la voz generada por IA suena un poco robótica en uno de los idiomas, aún así es totalmente entendible. Google explica que la traducción de idiomas sucede en «casi tiempo real», debido a que la IA necesita escuchar la frase antes de traducir. Sin embargo, el proceso demuestra ser casi inmediato, con muy poca latencia (al menos en la demostración durante la conferencia), además de que hace todo lo posible por preservar el tono y expresión de las voces. La nueva traducción en tiempo real en Meet está disponible a partir de este martes para suscriptores de los planes Google AI Pro y el nuevo nivel Ultra. Por ahora la función está en beta y disponible inicialmente en inglés y español, y Google confirma que más idiomas estarán disponibles en las próximas semanas. Además. Google asegura que esta nueva función ya está en desarrollo para su aplicación en negocios para usuarios de Workspace. Las pruebas comenzarán más adelante este año. Sí, por lanzamiento la traducción en tiempo real en Meet será para usuario de los niveles de pago de la IA de Google. Sin embargo, es una muestra del alcance que ha logrado Google con su IA,y es posible que en el futuro esta nueva función se expanda a todos los usuarios sin necesidad de pago. La traducción en tiempo real en Meet es solo una de las grandes novedades que se han presentado durante la conferencia Google I/O 2025. Lo que queda claro es que la IA es todo para Google, y quiere que la usemos para todo. Nota tomada de: Xataka México

Leer más

La respuesta inesperada de la inteligencia artificial: Qué música prefieren las personas inteligentes y por qué

¿Puede tu lista de reproducción decir algo sobre tu inteligencia? ChatGPT fue consultado sobre el vínculo entre gustos musicales y capacidad cognitiva, y su respuesta —basada en estudios psicológicos— sugiere que la clave no está en el género, sino en la complejidad emocional y estética que cada oyente busca. Desde hace décadas, psicólogos y científicos han investigado la relación entre música e inteligencia. ¿Qué nos revela lo que escuchamos? En una conversación con la IA, se planteó la clásica pregunta: ¿cuál es el género musical favorito de las personas inteligentes? La IA respondió con datos, estudios y un enfoque que va más allá de los estereotipos. Estilos musicales, rasgos de personalidad y curiosidad intelectual ChatGPT señaló que los gustos musicales están íntimamente ligados a la personalidad, y que uno de los modelos más aceptados en psicología —el de los Cinco Grandes Rasgos— revela una conexión clave: la apertura a la experiencia. Este rasgo, vinculado a la creatividad, la imaginación y la curiosidad, está fuertemente relacionado con niveles más altos de inteligencia. Según esta perspectiva, las personas con alta apertura tienden a disfrutar de géneros musicales que presentan complejidad técnica, riqueza emocional o estructuras poco convencionales. Entre los más elegidos están la música clásica, el jazz, el rock progresivo, el indie, la electrónica ambiental o el folk experimental. No se trata de que estos estilos sean «mejores», sino de que despiertan un mayor interés intelectual y sensorial. Más que elegir una música por moda o costumbre, las personas con mayor capacidad cognitiva buscan sonidos que los desafíen, que los conmuevan o que les propongan nuevas formas de entender el arte y las emociones. ¿Hay géneros musicales que predicen mayor inteligencia? Uno de los estudios más conocidos en esta línea fue el realizado por Virgil Griffith en 2009. Cruzó datos de preferencias musicales en redes sociales universitarias con puntajes en los exámenes SAT. El resultado mostró que quienes escuchaban a Beethoven o música clásica tendían a obtener mejores resultados académicos, mientras que quienes preferían el pop comercial, el reguetón o el rap obtenían puntajes más bajos. No obstante, el mismo estudio fue cuestionado por su falta de control sobre factores como el nivel socioeconómico, el entorno cultural o el acceso a la educación. Asociar un género musical con un nivel de inteligencia puede llevar a generalizaciones injustas e incluso a prejuicios clasistas. En realidad, lo que distingue a muchas personas inteligentes no es el género que eligen, sino su disposición a descubrir nuevas formas de expresión. La verdadera señal de inteligencia musical podría no estar en lo que se escucha, sino en cómo y por qué se lo hace. Nota tomada de: Gizmodo

Leer más

Google quiere que Gemini sea una experiencia personalizada para cada usuario, con una condición: conocer nuestro historial de búsquedas

Un Gemini que se adapte a las preferencias de los usuarios. Esa es la idea más reciente de Google, que busca convertir su asistente de IA en un producto más útil, capaz de resolver preguntas generales y solicitudes, pero también de personalizarse con los datos de cada usuario. De acuerdo con la compañía, este «Gemini personalizado» es una nueva capacidad experimental de su modelo Gemini 2.0 Flash Thinking, diseñado para conectarse con las aplicaciones de Google y ofrecer respuestas más relevantes para el consumidor. La integración comenzará con el Buscador, lo que permitirá brindar una experiencia más personalizada basada en el historial de búsqueda del usuario. Este es solo el primer paso. En los próximos meses, Google planea extender la personalización a otras aplicaciones y servicios, como Fotos y YouTube. Con esto, la compañía busca que Gemini se convierta en «un compañero aún más inteligente», capaz de establecer conexiones y ofrecer respuestas alineadas con los gustos del usuario. Cómo activar Gemini personalizado Para habilitar esta integración, es necesario seguir un proceso específico. En las aplicaciones de Gemini, se debe acceder al menú desplegable y seleccionar la opción «Personalización (experimental)» para conectar el modelo con el historial de búsqueda. Así, cuando el usuario ingrese una instrucción, la IA podrá analizar si el historial disponible puede ayudar a mejorar la respuesta. Google asegura que el usuario mantiene el control total sobre su información y los permisos de acceso, con la opción de desconectar la IA del historial en cualquier momento. El uso de estos datos no será constante. Solo se emplearán cuando los modelos de razonamiento avanzado de Google determinen que son «realmente útiles». Hasta ahora, quienes han probado la función consideran que es beneficiosa para tareas como la lluvia de ideas y la obtención de recomendaciones personalizadas. Por ahora, Gemini personalizado está disponible como una función experimental, aunque con ciertas restricciones. No podrá ser utilizada por menores de 18 años, ni en entornos Workspace o Education. Inicialmente, no tendrá límites de uso, pero Google advierte que esto podría cambiar en el futuro. La función estará disponible para los suscriptores de Gemini y Gemini Advanced en la web, y más adelante en dispositivos móviles. El servicio podrá utilizarse en más de 40 idiomas y en casi todos los países del mundo, con excepción de los que forman parte del Espacio Económico Europeo, Suiza y Reino Unido. Nota tomada de: Xataka México

Leer más

Manus es la nueva sensación de la IA china tras DeepSeek. Está generando tantas expectativas como dudas

La semana pasada se empezaron a oír voces en el segmento de la IA. Teníamos teóricamente un nuevo fenómeno DeepSeek. Se trataba de Manus, un teórico agente de IA que planteaba opciones especialmente llamativas. Sin embargo, en redes sociales han aparecido dudas y suspicacias sobre la capacidad real de este modelo. La incógnita sobre su valor real está ahí. Manus no es un agente de IA. Sus responsables en su sitio web oficial, es «un agente de IA general que conecta ideas con acciones: no solo piensa, entrega resultados». En realidad es más un modo «investigación profunda» —como el ‘Deep Research’ de OpenAI— sobre los datos que le demos. Así, Manus es teóricamente capaz de crearte un detallado plan de viaje de 7 días por Japón, ayudarte a realizar un análisis profundo del valor de las acciones de Tesla, crear para ti una presentación para una clase sobre la ley de conservación del momento, por ejemplo. Expectativas por todo lo alto. Uno de los responsables de producto en Hugging Face lo calificó como «la herramienta de IA más impresionante que he probado jamás». Su servidor oficial de Discord ha logrado atraer a casi 170.000 usuarios desde su creación hace una semana. La expectación es notable, pero como explican en TechCrunch, hay dudas sobre su verdadera capacidad. Manus se basa en Claude y Qwen. Hay usuarios que ya han indicado que Manus parece no haber sido creado de cero, y al parecer está totalmente basado en modelos variados como Claude 3.7 y Qwen (Alibaba). Uno de sus cofundadores, Yichao «Peak» Yi, confirmaba que en efecto se basan en otros productos y ellos son una capa que se apoya en dichos modelos. En el vídeo de presentación Yichao destacó que en algunos benchmarks Manus era superior a Deep Research y a Operator, los productos de OpenAI. ¿Lo es? Errores e inconsistencias. Algunos expertos como Alexander Doria, cofundador de la startup de IA Pleias,  han indicado que Manus comete errores y bucles infinitos al usarlo. Otros señalan cómo comete errores con preguntas con respuestas claras y no cita fuentes de forma consistente. Beta por invitación. Por ahora no es posible acceder a las opciones de Manus, y solo es posible usarlo si algún otro usuario te invita. En TechCrunch han logrado tener acceso, y las pruebas realizadas, explicaba el editor que lo probó, «no han sido especialmente positivas». Ninguna de las tareas agénticas que probó —reservar mesa en un restaurante, sacar tickets de avión— funcionó. En The Register también han tenido acceso y no han quedado nada impresionados con los resultados». Probaron a crear un clon de Mario que resultó ser bastante terrible, por ejemplo. Otros usuarios que sí lo han probado o bien lo ensalzan o bien creen que a pesar de sus luces y sombras es un producto especialmente prometedor. De momento esto no es un DeepSeek. Lo cierto es que la rápida popularidad de Manus contrasta con la de DeepSeek, que estuvo disponible desde el primer momento como desarrollo Open Source que cualquiera podía descargar y usar. Puede que la empresa quiera aprovechar precisamente esa expectación que generan las betas con acceso por invitación y que prefieran evitar gastos mayores de infraestructura. Nota tomada de: Xataka

Leer más

Alexa+ es la evolución con inteligencia artificial del popular asistente de Amazon

Sabíamos que Amazon estaba desarrollando una nueva versión de Alexa, su asistente digital, potenciado con inteligencia artificial. Después de una larga espera, finalmente ha llegado esta variante mejorada en todos los aspectos: Alexa+. Este nuevo asistente es capaz de entender el contexto de las solicitudes de los usuarios y crear rutinas personalizadas con solo pedirlo. Funciona de manera similar a ChatGPT, Gemini o Siri, pero con una diferencia clave: su integración directa con todo el ecosistema de dispositivos conectados a la plataforma de Amazon. Entre sus funciones destacan la posibilidad de realizar compras, enviar invitaciones a eventos y recordar detalles como preferencias de películas o restricciones dietéticas. Además, permite reservar cenas a través de plataformas como Yelp y consultar la disponibilidad de lugares para eventos como conciertos. Alexa+ también puede ayudar en el estudio, ya que permite compartir documentos, correos electrónicos, recetas familiares y materiales educativos. A partir de estos, la IA extrae información relevante para generar resúmenes, agregar eventos al calendario o responder preguntas específicas. Otra de sus mejoras es la forma de interactuar con los usuarios. Ahora basta con decir «Alexa» para activar el asistente, que también cuenta con capacidades de visión artificial para tomar y analizar imágenes, similar a la tecnología de ChatGPT. Además de controlar dispositivos inteligentes y crear rutinas, Alexa+ ofrece mejoras en el apartado musical. No solo permite encontrar canciones sin conocer el título o el artista, sino que también puede reproducirlas en distintas habitaciones con un simple comando de voz. En cuanto a Prime Video, facilita la búsqueda de escenas específicas mediante referencias a actores o personajes sin necesidad de adelantar manualmente. El asistente «de próxima generación» de Amazon Según Amazon, Alexa+ ofrece «respuestas detalladas adaptadas a las necesidades de los usuarios» y mantiene conversaciones naturales y fluidas, ya que comprende el contexto de cada interacción sin necesidad de utilizar un lenguaje preciso. Además, el asistente aprende de cada uso, lo que optimiza su desempeño según las preferencias del usuario. Alexa con IA llega acompañada de una nueva interfaz para los dispositivos Echo Show y estará disponible en altavoces, aplicaciones móviles y una nueva plataforma web. Gracias a su memoria integrada, podrá recordar conversaciones previas para ofrecer una experiencia más personalizada. Para su funcionamiento, Alexa+ emplea la tecnología de Amazon Bedrock, lo que le permite acceder a grandes modelos de lenguaje (LLM), como Nova, y a modelos de terceros, como los desarrollados por Anthropic, la empresa detrás de Claude. El sistema selecciona el modelo más adecuado según cada tarea. Su base de conocimientos se actualiza constantemente con información de fuentes confiables, como AP, Reuters, Time y USA Today, para así garantizar respuestas rápidas y precisas sobre diversos temas. Precio y disponibilidad de Alexa+ Amazon ha anunciado que Alexa+ tendrá un precio de 19.99 dólares al mes, aproximadamente 400 pesos, pero será gratuito para los miembros de Prime. El despliegue inicial se realizará en Estados Unidos en las «próximas semanas» y, en los meses siguientes, comenzará a llegar en «oleadas» al resto de catálogo de Amazon, específicamente para los Echo Show 8, 10, 15 y 21. Nota tomada de: Xataka México

Leer más

Las 5 mejores canciones de rock capaces de producir fervor; Nirvana en el listado

Créditos: GettyImages La inteligencia artificial reveló un listado con los mejores temas rockeros que puede escuchar para sentirse fervoroso. El rock es mucho más que un simple género musical. Este tipo de música se ha convertido en una forma de expresión cultural capaz de influir, no solo en los pensamientos y actuaciones de los fans, sino también en sus sentimientos. Infinidad de estudios, han demostrado que la música tiene la capacidad de despertar cierto tipo de emociones como el amor, el odio, la tristeza, la euforia y hasta el fervor. En el caso del rock, al ser un género musical que se caracteriza por su potencia y fuertes ritmos, sus canciones suelen estar asociadas a sentimientos positivos como la alegría, el placer, la euforia, la tranquilidad, entre otros. A través de sus melodías y ritmos vibrantes, esta música puede evocar una amplia gama de emociones, que van desde la nostalgia hasta la euforia absoluta. En este sentido, hay canciones de rock que logran encender una chispa de entusiasmo y pasión en quienes las escuchan, generando gran fervor. Las 5 Canciones de rock que despiertan fervor En este sentido, canciones con ritmos intensos, estribillos poderosos y una ejecución instrumental electrizante tienen la capacidad de hacer que el público se sienta emocionado, motivado y lleno de adrenalina. Si está buscando canciones que eleven su energía y lo hagan sentir una emoción intensa, aquí le presentamos un listado con cinco de los temas más fervorosos del rock, según la inteligencia artificial. Nota tomada de: Radio acktiva

Leer más

DeepSeek: cómo usarlo desde el celular en México y qué puede hacer

Un nuevo competidor ha llegado a plantarle cara a ChatGPT y Gemini. Se llama DeepSeek, es gratis y quiere ser la inteligencia artificial avanzada que usemos en el día a día. Lo curioso, es que aunque la IA es de origen chino, supera a ChatGPT en algunas pruebas de rendimiento, lo que le ha valido colarse en el top de aplicaciones más descargadas de la App Store de Apple en Estados Unidos. Lo mejor es que también puedes utilizarlo desde México, y aunque está disponible en PC y tiene su propia app, por el momento solo puedes utilizarlo desde el navegador de tu celular. Aquí en Xataka Basics México te contamos cómo puedes usar DeepSeek y para qué sirve. Qué es DeepSeek y qué puede hacer Al igual que otras inteligencias artificiales, DeepSeek es un modelo avanzado que mezcla 671 millones de parámetros que le permite tener un mayor rendimiento al utilizar menos recursos que otras IA. Además, destaca por ser de código abierto, lo que significa que cualquier persona puede saber como funciona internamente y cualquiera puede usarla con total libertad. A diferencias de otras IA, DeepSeek tampoco requiere ninguna suscripción, se puede probar de forma gratuita. En cuanto a su funcionamiento, es igual que el de otros modelos con IA avanzada. Es decir, es un chatbot al que le puedes preguntar cualquier cosa y éste responderá en tiempo real. Su característica principal es que todas las respuestas pueden ser «razonadas» gracias a su modelo de lenguaje, pero también puede activarse solo para buscar información presente en la web. Igual que otras IA, DeepSeek puede resolver problemas matemáticos, explicar temas complejos, extraer información de documentos, recomendar series o películas, generar ideas, textos, plantillas, revisar la ortografía, preguntarle datos curiosos y prácticamente cualquier cosa que se te ocurra. Cómo usar DeepSeek desde cualquier celular en México Acceder a DeepSeek es muy sencillo, solo tienes que entrar a su página web oficial y registrarte para comenzar a usar esta IA. Como mencionamos al principio, DeepSeek tiene su propia aplicación que puede ser descarga desde su página oficial y también funciona directamente desde la web. Sin embargo, por el momento, los servidores de la compañía están lentos y arroja un error si quieres utilizara en PC o en su propia app. Por esta razón, es más fácil utilizarla desde el navegador del celular, pues desde cualquier smartphone podrás registrarte sin problemas utilizando una cuenta de Google, así podrás comenzar a utilizar la IA. Como verás, la interfaz es muy similar a la de cualquier buscador, aquí solo debes escribir la pregunta y esperar a que el chatbot responda. Otro punto a destacar es que aunque el chatbot está en idioma inglés o chino, (y funciona mejor en estos idiomas) también puedes escribir en idioma español sin ningún problema, pues la IA puede reconocer el texto y traducirlo en tiempo real.  Con DeepSeek los comandos o prompts son fáciles de ejecutar y su límite será la imaginación o curiosidad que tu tengas. Al momento de utilizarlo recuerda también que puedes activar o desactivar los filtros de función: «DeepThink R1», la cual brinda respuestas más inteligentes, o «Search», para obtener información directamente desde la web. Listo. Ahora sabes qué es DeepSeek, cómo funciona, qué puede hacer y cómo usarlo desde cualquier navegador web en smartphones. Recuerda que la clave para que cualquier IA sea más eficiente es preguntar o dar comandos más detallados, así las respuestas serán más concisas y podrás sacarle mayor provecho. Nota tomada de Xataka México

Leer más