Adiós, ChatGPT: Gemini ya tiene la función más espectacular y futurista de la IA

A partir de este momento puedes utilizar la función más espectacular de Gemini. Google acaba de revolucionar su IA. A partir de este momento, la app de Gemini ya es capaz de ver tu pantalla o la cámara de tu móvil para interactuar en tiempo real. La función se anunció en marzo, aunque la gran G ha necesitado un poco de tiempo para poder hacerla realidad. Ya está aquí, y llega como una de las grandes bazas para superar a ChatGPT y el resto de opciones. Además, aunque como todo lo novedoso, tiene el pequeño inconveniente de tener que pasar por caja, Google ha dado la sorpresa incluyéndolo gratis a ciertos móviles. La novedad gira en torno a la función de Gemini Live, ese asistente de voz de la IA con la que es posible tener una conversación fluida sobre cualquier tema. Pues bien, este apartado ahora cuenta con la posibilidad de tener más métodos de entrada: además de la voz, puedes permitir que vea todo lo que ocurre en tu pantalla o a través de la cámara del móvil. De esta forma, la conversación ya no solo tendrá indicaciones de tu voz, sino que se podrán tomar referencias en tiempo real de lo que estás haciendo en el móvil o enfocando con tu cámara. Y, claro, las posibilidades, como puedes imaginar, ahora son casi infinitas al utilizar Gemini Live. Lamentablemente, como decíamos arriba, la función solo está disponible para aquellos usuarios que pasan por caja con la versión Gemini Advanced. Ahora bien, Google ha sorprendido a todos ofreciendo esta novedad a las cuentas gratuitas que se ejecuten desde un Pixel 9 o un Galaxy S25. Gemini Live ahora es mil veces mejor Gemini Live es un gran competidor del modelo de lenguaje avanzado de ChatGPT, permitiendo tener una conversación muy fluida y natural con la IA sobre casi cualquier tema. Ahora, la función evoluciona y hace que puedas llevar la experiencia a otro nivel. El hecho de poder interactuar con la cámara del móvil abre un mundo de posibilidades. Cuando actives el modo Gemini Live, podrás estar hablando con la IA y activar la cámara para pedirle consejo sobre lo que estás enfocando. Puede ser útil para conocer más información sobre un tipo de planta que tienes en casa o para saber si estás realizando bien un ejercicio en el gimnasio. Además, al tener acceso a la pantalla de tu dispositivo, también es útil para tener conversaciones sobre lo que ves al navegar o para que te ayude a solucionar un problema en tu smartphone. ¿Quieres cambiar la rueda del coche y no sabes cómo hacerlo? Gemini Live puede guiarte paso a paso y, además, indicarte si los pasos que estás siguiendo están hechos correctamente. ¿Necesitas ideas para decorar tu salón? Puedes activar la cámara en Gemini Live e ir enfocando las zonas clave para que la IA te dé ideas y pueda tener un contexto real de la estancia sobre la que estás preguntando. Las posibilidades tienden a lo infinito, y permiten sacarle mucho más partido a la app de Gemini desde cualquier dispositivo. Como te indicábamos más arriba: el uso de la cámara en Live está disponible desde este momento para usuarios de Gemini Advanced o gratis para todos aquellos que cuenten con un Pixel 9 o Galaxy S25. Nota tomada de: Hipertextual

Leer más

Alexa+ es la evolución con inteligencia artificial del popular asistente de Amazon

Sabíamos que Amazon estaba desarrollando una nueva versión de Alexa, su asistente digital, potenciado con inteligencia artificial. Después de una larga espera, finalmente ha llegado esta variante mejorada en todos los aspectos: Alexa+. Este nuevo asistente es capaz de entender el contexto de las solicitudes de los usuarios y crear rutinas personalizadas con solo pedirlo. Funciona de manera similar a ChatGPT, Gemini o Siri, pero con una diferencia clave: su integración directa con todo el ecosistema de dispositivos conectados a la plataforma de Amazon. Entre sus funciones destacan la posibilidad de realizar compras, enviar invitaciones a eventos y recordar detalles como preferencias de películas o restricciones dietéticas. Además, permite reservar cenas a través de plataformas como Yelp y consultar la disponibilidad de lugares para eventos como conciertos. Alexa+ también puede ayudar en el estudio, ya que permite compartir documentos, correos electrónicos, recetas familiares y materiales educativos. A partir de estos, la IA extrae información relevante para generar resúmenes, agregar eventos al calendario o responder preguntas específicas. Otra de sus mejoras es la forma de interactuar con los usuarios. Ahora basta con decir «Alexa» para activar el asistente, que también cuenta con capacidades de visión artificial para tomar y analizar imágenes, similar a la tecnología de ChatGPT. Además de controlar dispositivos inteligentes y crear rutinas, Alexa+ ofrece mejoras en el apartado musical. No solo permite encontrar canciones sin conocer el título o el artista, sino que también puede reproducirlas en distintas habitaciones con un simple comando de voz. En cuanto a Prime Video, facilita la búsqueda de escenas específicas mediante referencias a actores o personajes sin necesidad de adelantar manualmente. El asistente «de próxima generación» de Amazon Según Amazon, Alexa+ ofrece «respuestas detalladas adaptadas a las necesidades de los usuarios» y mantiene conversaciones naturales y fluidas, ya que comprende el contexto de cada interacción sin necesidad de utilizar un lenguaje preciso. Además, el asistente aprende de cada uso, lo que optimiza su desempeño según las preferencias del usuario. Alexa con IA llega acompañada de una nueva interfaz para los dispositivos Echo Show y estará disponible en altavoces, aplicaciones móviles y una nueva plataforma web. Gracias a su memoria integrada, podrá recordar conversaciones previas para ofrecer una experiencia más personalizada. Para su funcionamiento, Alexa+ emplea la tecnología de Amazon Bedrock, lo que le permite acceder a grandes modelos de lenguaje (LLM), como Nova, y a modelos de terceros, como los desarrollados por Anthropic, la empresa detrás de Claude. El sistema selecciona el modelo más adecuado según cada tarea. Su base de conocimientos se actualiza constantemente con información de fuentes confiables, como AP, Reuters, Time y USA Today, para así garantizar respuestas rápidas y precisas sobre diversos temas. Precio y disponibilidad de Alexa+ Amazon ha anunciado que Alexa+ tendrá un precio de 19.99 dólares al mes, aproximadamente 400 pesos, pero será gratuito para los miembros de Prime. El despliegue inicial se realizará en Estados Unidos en las «próximas semanas» y, en los meses siguientes, comenzará a llegar en «oleadas» al resto de catálogo de Amazon, específicamente para los Echo Show 8, 10, 15 y 21. Nota tomada de: Xataka México

Leer más

Para intentar salir de la quiebra, Nissan sigue los pasos de BYD y equipa sus coches eléctricos con la IA DeepSeek, rival de ChatGPT

El primer coche eléctrico de Nissan comercializado únicamente en China contará con la IA DeepSeek. DeepSeek es la IA china, rival de ChatGPT, de moda. Y si varios fabricantes chinos ya han anunciado que la instalarán en sus coches; Nissan también hará lo mismo en la berlina eléctrica Nissan N7. A poco que uno le guste la tecnología, seguro que ha oído hablar de DeepSeek, la IA china que, más eficiente que ChatGPT, amenaza la hegemonía de esta IA en el mercado mundial… y en el mercado de los coches eléctricos. En las últimas semanas, fabricantes chinos como BYD, Zeekr, Smart o Leapmotor -aquí puedes leer la prueba del interesante Leapmotor T03-, así como algunos otros presentes en ese país -como Nissan-; ya han anunciado que contarán con esta IA en sus coches eléctricos. BYD recurre ya a la IA DeepSeek en su sistema de conducción autónoma. Nissan, al borde de la quiebra, lanza en China un coche eléctrico muy tecnológico La inclusión de la IA DeepSeek por parte del fabricante nipón sí es, al menos, una señal de que buscan mantenerse en la cresta de la ola tecnológica pese a que afrontan, desde el pasado mes de noviembre, una profundísima crisis. Y es que aunque Foxconn esté muy interesado en colaborar con Nissan, incluso adquiriendo si es necesario las acciones de la compañía japonesa a Renault; la marca japonesa ha seguido lanzando interesantes modelos como la enorme berlina eléctrica N7, de 4,93 metros de largo 1,89 m de ancho y 1,49 m de altura, que además contará con una  distancia entre ejes de nada menos que 2,91 metros. De lo poco que se sabe del próximo Nissan N7 es que medirá nada menos que 4,93 metros de longitud. Un coche eléctrico del que por ahora sí se sabe que contará con un motor de 200 kW/268 CV de origen Donfgeng y que será fabricando en conjunto con este fabricante local, pero para el cual -al menos por ahora- no se prevé su comercialización más allá de las fronteras chinas. Y pese a que del Nissan N7 aún no se conoce ni su autonomía eléctrica ni tampoco su fecha de lanzamiento en China; sí se espera que se ponga a la venta durante los primeros meses de este año. Construido en colaboración con Dongfeng, este Nissan N7 contará con un motor de 200 kW/268 CV fabricado por la empresa china. Pese a la falta de información que pesa sobre este nuevo coche eléctrico de Nissan, la marca japones sí acaba de anunciar que, siguiendo los pasos de gigantes como BYD, que anunció apenas un par de días que recurriría a DeepSeek en su sistema de conducción autónoma; el Nissan N7 también contará con esta IA, que se ha destapado como la principal rival de Chat GPT. Junto a ella, Nissan ya anunció hace algunas semanas que se había asociado con la start-up china Momenta, especializada en sistema de conducción autónoma. Y que el N7 sería el modelo que estrenaría esta tecnología para la marca japonesa. Nota tomada de: HibridosyElectricos

Leer más

Google no quieren que ignoren Gemini: su IA ya puede razonar gratis, igual que ChatGPT, Copilot y DeepSeek

La inteligencia artificial de Google, Gemini, que tiene capacidades de razonamiento para responder preguntas complejas, ya está disponible para todos los usuarios gracias a una actualización de la compañía. Se trata de Gemini 2.0 Flash Thinking, un concepto similar al de otras inteligencias artificiales como Copilot, de Microsoft, o ChatGPT, de OpenAI, con Deep Think o la serie o1/o3, respectivamente. De acuerdo con una publicación en su blog, Google indica que Gemini 2.0 Flash Thinking Experimental ya está disponible para todos los usuarios. Esta versión ofrece una serie de modelos accesibles de forma gratuita desde computadoras o la aplicación específica. Entre sus características, algunos modelos pueden razonar de manera avanzada, e incluso uno de ellos tiene la capacidad de interactuar con aplicaciones como YouTube, Google Search y Google Maps. Estos modelos funcionan descomponiendo las indicaciones de los usuarios en pasos más pequeños y manejables, lo que les permite «pensar» en las instrucciones antes de responder. Aunque este proceso se traduce en resultados más precisos, también implica que, al igual que otros modelos, el tiempo de respuesta es mayor. Según Google, Gemini 2.0 Flash Thinking Experimental es actualmente el «mejor modelo del mundo» y está disponible de forma gratuita. Su desarrollo se basa en la velocidad y el rendimiento optimizado de Gemini 2.0 Flash. Este modelo muestra su proceso de pensamiento, de manera similar a DeepSeek-R1, lo que permite que los usuarios comprendan mejor las razones detrás de cada respuesta generada a partir de su análisis. La segunda variante disponible es Gemini 2.0 Flash Thinking Experimental with Apps, que permite la interacción con ciertas aplicaciones de Google, como YouTube, Google Maps y Google Search. Esto hace que Gemini sea «excepcionalmente útil», ya que puede realizar consultas en cualquiera de estos tres servicios directamente desde su interfaz de chatbot. Por último, los usuarios de la versión gratuita también pueden acceder, desde finales de enero de 2025, a Gemini 2.0 Flash, un modelo de IA con menor latencia y rendimiento mejorado. En el futuro, este modelo incorporará capacidades para generar imágenes y convertir texto a voz en sus respuestas. Más modelos de IA mejorados Estos modelos no llegan solos, pues Google también ha lanzado oficialmente una versión experimental de Gemini 2.0 Pro, diseñada para mejorar el rendimiento en áreas como codificación y matemáticas. La compañía asegura que este modelo ha sido optimizado para «ser excepcional en tareas complejas», con una ventana de contexto de hasta dos millones de tokens, lo que le permite analizar volúmenes más grandes de información. Además, dentro de la serie 2.0, se presenta Gemini 2.0 Flash-Lite, el modelo «más rentable» de la compañía hasta ahora. Este ofrece un mejor desempeño que 1.5 Flash, con su misma velocidad y costo. Nota tomada de: Xataka México

Leer más

DeepSeek: cómo usarlo desde el celular en México y qué puede hacer

Un nuevo competidor ha llegado a plantarle cara a ChatGPT y Gemini. Se llama DeepSeek, es gratis y quiere ser la inteligencia artificial avanzada que usemos en el día a día. Lo curioso, es que aunque la IA es de origen chino, supera a ChatGPT en algunas pruebas de rendimiento, lo que le ha valido colarse en el top de aplicaciones más descargadas de la App Store de Apple en Estados Unidos. Lo mejor es que también puedes utilizarlo desde México, y aunque está disponible en PC y tiene su propia app, por el momento solo puedes utilizarlo desde el navegador de tu celular. Aquí en Xataka Basics México te contamos cómo puedes usar DeepSeek y para qué sirve. Qué es DeepSeek y qué puede hacer Al igual que otras inteligencias artificiales, DeepSeek es un modelo avanzado que mezcla 671 millones de parámetros que le permite tener un mayor rendimiento al utilizar menos recursos que otras IA. Además, destaca por ser de código abierto, lo que significa que cualquier persona puede saber como funciona internamente y cualquiera puede usarla con total libertad. A diferencias de otras IA, DeepSeek tampoco requiere ninguna suscripción, se puede probar de forma gratuita. En cuanto a su funcionamiento, es igual que el de otros modelos con IA avanzada. Es decir, es un chatbot al que le puedes preguntar cualquier cosa y éste responderá en tiempo real. Su característica principal es que todas las respuestas pueden ser «razonadas» gracias a su modelo de lenguaje, pero también puede activarse solo para buscar información presente en la web. Igual que otras IA, DeepSeek puede resolver problemas matemáticos, explicar temas complejos, extraer información de documentos, recomendar series o películas, generar ideas, textos, plantillas, revisar la ortografía, preguntarle datos curiosos y prácticamente cualquier cosa que se te ocurra. Cómo usar DeepSeek desde cualquier celular en México Acceder a DeepSeek es muy sencillo, solo tienes que entrar a su página web oficial y registrarte para comenzar a usar esta IA. Como mencionamos al principio, DeepSeek tiene su propia aplicación que puede ser descarga desde su página oficial y también funciona directamente desde la web. Sin embargo, por el momento, los servidores de la compañía están lentos y arroja un error si quieres utilizara en PC o en su propia app. Por esta razón, es más fácil utilizarla desde el navegador del celular, pues desde cualquier smartphone podrás registrarte sin problemas utilizando una cuenta de Google, así podrás comenzar a utilizar la IA. Como verás, la interfaz es muy similar a la de cualquier buscador, aquí solo debes escribir la pregunta y esperar a que el chatbot responda. Otro punto a destacar es que aunque el chatbot está en idioma inglés o chino, (y funciona mejor en estos idiomas) también puedes escribir en idioma español sin ningún problema, pues la IA puede reconocer el texto y traducirlo en tiempo real.  Con DeepSeek los comandos o prompts son fáciles de ejecutar y su límite será la imaginación o curiosidad que tu tengas. Al momento de utilizarlo recuerda también que puedes activar o desactivar los filtros de función: «DeepThink R1», la cual brinda respuestas más inteligentes, o «Search», para obtener información directamente desde la web. Listo. Ahora sabes qué es DeepSeek, cómo funciona, qué puede hacer y cómo usarlo desde cualquier navegador web en smartphones. Recuerda que la clave para que cualquier IA sea más eficiente es preguntar o dar comandos más detallados, así las respuestas serán más concisas y podrás sacarle mayor provecho. Nota tomada de Xataka México

Leer más

Soldado que hizo explotar Cybertruck en Las Vegas usó ChatGPT para planear el ataque; se trata del primer ataque en EU donde se usa IA

La explosión causó heridas leves a siete personas, pero prácticamente ningún daño al Hotel Internacional Trump. Fotos: Captura de Pantalla De acuerdo con las autoridades, el atacante buscó sobre objetivos explosivos y si los fuegos artificiales eran legales en Arizona Las Vegas. El soldado altamente condecorado que hizo explotar una camioneta Cybertruck de Tesla afuera del Hotel Internacional Trump en Las Vegas utilizó inteligencia artificial generativa, incluido ChatGPT, para planificar el ataque, informó el martes la policía de Las Vegas. Las autoridades siguen revisando una computadora, un teléfono y un reloj casi una semana después de que Matthew Livelsberger, de 37 años de edad, se quitó la vida momentos antes de que la camioneta estallara. Una investigación de las búsquedas de Livelsberger a través de ChatGPT indica que buscaba información sobre objetivos explosivos, la velocidad a la que ciertas rondas de munición viajarían y si los fuegos artificiales eran legales en Arizona. Kevin McMahill, jefe del Departamento de Policía del condado de Clark, señaló que el uso de la inteligencia artificial generativa es un “cambio radical” y comentó que el departamento policial estaba compartiendo información con otras agencias del orden público. “Este es el primer incidente en territorio estadounidense del que tengo conocimiento en el se utilizó ChatGPT para ayudar a una persona a construir un dispositivo en particular”, dijo. “Es un acontecimiento preocupante.” Durante una conferencia de prensa de aproximadamente media hora de duración, la policía de Las Vegas y funcionarios federales del orden público revelaron nuevos detalles sobre la explosión del Día de Año Nuevo. Agresor de explosión de Cybertruck en Las Vegas lleva 27 kilos de material pirotécnico Entre la información que las autoridades dieron a conocer está que: Livelsberger se detuvo durante el viaje a Las Vegas para verter combustible de grado de competición en la Cybertruck, que luego goteó la sustancia. El vehículo llevaba a bordo 27 kilogramos (60 libras) de material pirotécnico y los funcionarios aún no están seguros de qué fue lo que detonó exactamente la explosión, pero dijeron que podría haber sido el destello del arma de fuego que Livelsberger usó para quitarse la vida. Livelsberger, un boina verde del ejército estadounidense que fue desplegado dos veces a Afganistán y vivía en Colorado Springs, Colorado, dejó notas diciendo que la explosión era un acción destinada a ser una “llamada de atención” para los problemas que aquejan a la nación, dijeron los funcionarios la semana pasada. De acuerdo con notas que dejó en un teléfono, Livelsberger señaló necesitaba “limpiar” su mente “de los hermanos que he perdido y aliviarme de la carga de las vidas que tomé”. La explosión causó heridas leves a siete personas, pero prácticamente ningún daño al Hotel Internacional Trump. Las autoridades dijeron que Livelsberger actuó solo. Las cartas de Livelsberger mencionan agravios políticos, problemas sociales y cuestiones domésticas e internacionales, incluida la guerra en Ucrania. Escribió que Estados Unidos estaba “terminalmente enfermo y encaminado hacia el colapso”. Los investigadores habían estado tratando de determinar si Livelsberger quería hacer un punto político, dado el Tesla y el hotel que lleva el nombre del presidente electo. Livelsberger no albergaba ningún rencor hacia el presidente electo Donald Trump, dijeron funcionarios del orden público. En una de las notas que dejó, señaló que el país necesitaba “unirse” a él y al director general de Tesla, Elon Musk. Nota tomada de: El Universal

Leer más

Salen a la luz nuevos datos de iOS 18 y ya se esboza el plan maestro de Apple con la inteligencia artificial

Mark Gurman adelanta las principales mejoras de Siri con iOS 18 y el estado en el que se encuentra Apple para integrar su propio ChatGPT en los iPhone Quedan exactamente tres semanas para la WWDC 2024. Este evento anual de Apple orientado al software tiene pinta de ser uno de los más relevantes de estos últimos años (con permiso de la WWDC 2023 y la presentación del Vision Pro). El principal motivo es el impulso mediante inteligencia artificial que Apple dará a sus sistemas operativos. Y empezará todo con el del iPhone. De iOS 18 tenemos ya algunas novedades en accesibilidad confirmadas, pero aún queda lo más importante por conocer y que será todo aquello relacionado con la IA. Apple ha presentado ya varios modelos como OpenELM y también negocia con Google y OpenAI para integrar sus modelos en este iOS 18, del cual hemos sabido ahora algunas de las funcionalidades que tendrá. Siri será (aún más) proactiva en iOS 18 La última newsletter de Mark Gurman en Bloomberg ha servido para que el analista, basándose en sus fuentes internas de Apple, pueda avanzar algunas de las características que tendrá el próximo iOS 18. Unas características que se esperan que sean comunes a iPadOS 18 y macOS 15, dado que serán transversales a todos los sistemas, aunque es el del iPhone el que Gurman ha situado como escenario. Algunas de las más previsibles y que lleva tiempo rumoreándose es la mejora de Siri, dotándola no sólo de una voz más natural, sino promoviendo que las conversaciones con el asistente sean también mucho más naturales y sea capaz de entender contextos de forma amplia. Aunque si hay un detalle que destaca Gurman y que da pie a otras funcionalidades es su proactividad. ¿Y qué quiere decir que Siri tenga dotes de inteligencia artificial proactiva? Pues en palabras de Gurman, que será capaz de involucrarse en todo tipo de funciones dentro de iOS 18, como la capacidad de resumir notificaciones, artículos de una web o sugerencias de eventos de calendario. Esto es algo que en mayor o menor medida ya tiene Siri, pero se espera que ahora sea aún más profunda en ello y, obviamente, lo haga con mucho más sentido. Donde por ejemplo no ha intervenido Siri hasta ahora y se espera que sea de gran ayuda es en la sugerencia de edición de imágenes. Se espera que Apple añada nuevas funciones de edición inteligente como hace Google con sus Pixel o Samsung con sus Galaxy S24, aunque aún no está claro el qué, ni el cómo. Sí parece, en virtud de palabras como las de Gurman, que al menos habrá sugerencias predeterminadas con lo que Siri considerará que es la mejor opción para cada fotografía. La forma de ejcutar la IA y una preocupación con el chatbot nativo Una gran duda de la IA de Apple que lleva meses rondando es si se ejecutará en local o en servidores externos. Pues bien, los últimos modelos de Apple fueron presentados para ser capaces de ejecutarse de forma amplia en los iPhone, proporcionando así un sistema mucho más rápido y privado. Sin embargo, para aquellas ejecuciones que requieran de unas mayores capacidades, la compañía no tendrá otra opción que la de mandar las peticiones a sus servidores. Unos servidores que, como ya se venía filtrando hace un par de semanas, estarán formados por diversos Mac con Apple Silicon. No obstante, la mala noticia la protagoniza el presunto «ChatGPT de Apple». Se sabe desde hace tiempo que Apple trabaja en ello bajo el paraguas del Proyecto Ajax y con el nombre en clave de AppleGPT. Sin embargo, tal y como ya se empezó a filtrar hace un par de meses, no llegarán a tiempo y es ahí donde podría surgir la colaboración con Google y OpenAI para integrar Gemini y/o ChatGPT. Según Gurman, en Apple aún está tratando de ponerse al día con ello y pese a no descartarse para próximos años, parece complicado que lo veamos en este 2024. Nota obtenida de: Applesfera

Leer más

Cómo probar GPT-4o, la nueva inteligencia artificial de OpenAI

Te contamos cómo puedes probar GPT-4o, la nueva inteligencia artificial de OpenAI que está revolucionando Internet con sus posibilidades. Ayer OpenAI revolucionó Internet y el sector de la inteligencia artificial. Su evento prometía ser interesante y consiguió dejar a todos con la boca abierta gracias a la llegada de GPT-4o. Esta nueva IA no solo es más capaz cuando interactúa con el texto, también ha avanzado increíblemente en la compresión de audio e imágenes. Y es que, la compañía ha conseguido lo que llevaba tiempo buscando: una interacción sublime entre la tecnología y los humanos. De hecho, OpenAI no solo ha mostrado cómo utilizan GPT-4o en tareas cotidianas, también ha anunciado que ya está disponible para todos los usuarios del mundo. Es más, para probar GPT-4o ni siquiera hace falta pagar. La compañía ha querido desplegar su herramienta más poderosa hasta el momento para todos, sin excepciones. Ahora bien, no todas las novedades mostradas en el evento están disponibles, pues cosas como la interacción con el audio o la aplicación para Mac deben esperar unas cuantas semanas. Cómo usar GPT-4o gratis en ChatGPT Lo que sí está disponible desde este momento es la nueva interacción mediante texto e imágenes de GPT-4o. La compañía ha querido ponérselo fácil a todos los usuarios desplegando la nueva IA en ChatGPT. No hay que hacer nada extraño, simplemente entrar en el chatbot y comenzar a utilizarlo. Y puedes hacerlo desde la web o las apps de iOS y Android. El despliegue comenzó ayer y debería estar disponible en gran parte del mundo. ¿Cómo sabes si lo estás probando? En la zona superior izquierda debe aparecer ‘GPT-4o‘. Si aparece ‘GPT-3.5’ significa que no tienes acceso en ese momento. OpenAI está priorizando a los clientes de la versión ‘Plus’ y ‘Team’, que son sus usuarios de pago. Se espera que durante los primeros días la demanda del servicio sea muy alta, por lo que los visitantes gratuitos de ChatGPT deben esperar o probar cada cierto tiempo para poder acceder a GPT-4o. De hecho, ha sido la propia OpenAI la que ha confirmado que GPT-4o ya está disponible en la versión gratuita y de pago, pero que el despliegue puede ser paulatino y algo más lento de lo esperado. Si todavía no tienes acceso, no te preocupes, es cuestión de tiempo. Y si tienes mucha prisa, siempre puedes pasar por caja con ChatGPT Plus, lo que te dará acceso a GPT-4 y a las nuevas funciones de GPT-4o por 22,99 euros al mes. OpenAI también ha anunciado que los usuarios de pago obtendrán un límite de mensajes 5 veces más alto para ‘Plus’ y mucho más para ‘Team’ y ‘Enterprise’. Imagen de @anibaltrejo Así es el nuevo ChatGPT Además, OpenAI ha comentado que con el paso de las semanas ChatGPT irá integrando GPT-4o de forma masiva, lo que mejorará su herramienta gratuita que hasta ahora se aprovechaba de GPT-3.5. La compañía ha listado una serie de mejoras generales que irán llegando para quedarse. Por supuesto, a todas estas novedades hay que sumarle la velocidad que ha ganado el nuevo modelo y su comprensión avanzada de voz, texto e imágenes. La voz de GPT-4o llegará más adelante Ahora bien, todos esos vídeos en los que los empleados de OpenAI interactúan con la IA en formato de voz y vídeo en directo son cosa del futuro. La buena noticia es que tardará increíblemente poco en llegar. La compañía ha anunciado que lanzará un modelo alfa para los usuarios de ChatGPT Plus en las próximas semanas. Este modo de voz permitirá hacer cosas tan increíbles como encuadrar cualquier cosa con la cámara de tu móvil y empezar a conversar sobre ello. De hecho, lo que ha conseguido OpenAI es tan increíble que cuesta describirlo con palabras. Aquí tienes un par de vídeos de lo que llegará. La app para MacOS ya está en marcha Para rematar la jugada, OpenAI ha presentado una aplicación de ChatGPT para MacOS que incluye todas las novedades relacionadas con GPT-4o. Dicha app es capaz de integrarse con los contenidos que muestra la pantalla del dispositivo e interactuar con ellos para que el usuario realice preguntas o cuestiones con una facilidad extrema. Los usuarios de ChatGPT Plus ya pueden descargarla y disfrutar de ella, aunque la compañía ha confirmado que también estará disponible de forma completamente gratuita más adelante. nota tomada de: Hipertextual

Leer más