Inicio Blog Página 30

¡Fujifilm revoluciona la fotografía! Presenta una «cámara sin lentes» que usa modulación de fase óptica y algoritmos de IA para crear imágenes nítidas

0

¡Atención, Gurú Tecno Army! El mundo de la imagen está a punto de dar un giro radical. Según un informe publicado este mes por el medio especializado en tecnología Photo Rumors, Fujifilm presentó recientemente una “cámara sin lente” en la conferencia “Romanticismo Industrial” celebrada en Roppongi, Tokio. Esta cámara carece por completo de lente tradicional y es capaz de reconstruir imágenes nítidas mediante algoritmos de inteligencia artificial.

Según los informes, esta cámara fue diseñada por el diseñador de productos Yoshimura Tashi, y su propósito inicial era servir como un sistema de gestión de imágenes, ayudando a los usuarios a buscar rápidamente imágenes específicas en sus teléfonos utilizando palabras clave como «cara sonriente» y «coche».

Yoshimura Tashi afirmó estar fascinado por la idea de «abandonar las formas tradicionales y crear nuevo valor». Comparó esta innovación con los fideos instantáneos en vaso o la cámara desechable, que revolucionaron sus respectivos campos.

¿Cómo funciona una «cámara sin lentes»?

En cuanto al hardware, esta cámara utiliza un dispositivo de modulación de fase óptica en lugar de un sistema de lentes múltiples tradicional. Sin embargo, cuando la luz pasa a través de este dispositivo, no produce una imagen nítida, sino que deja una mancha borrosa en el sensor. Es en este punto donde el algoritmo de IA interviene y utiliza la información de la escena contenida en la mancha para calcular una fotografía nítida.

Fujifilm camara sin lentes 2

Aplicaciones potenciales: más allá de la fotografía y con privacidad

En cuanto a sus posibles aplicaciones, si bien esta cámara no fue diseñada para tomar fotografías convencionales, se espera que:

  • Permita fabricar módulos de lentes para teléfonos inteligentes más delgados.
  • Proporcione módulos de reconocimiento visual específicos para la tecnología de conducción autónoma.
  • Logre la protección de la privacidad en el ámbito de la seguridad.

Este último punto es crucial: los datos sin procesar registrados son solo un punto de luz borroso, que solo puede descifrarse para obtener una imagen nítida tras la autorización. Esto abre la puerta a sistemas de captura de imágenes con una capa de privacidad integrada desde la base.

Sin embargo, cabe destacar que la cámara expuesta es solo un prototipo y aún no ha llegado a la fase de producción en masa.

Como vemos, la «cámara sin lentes» de Fujifilm es una de esas innovaciones que nos recuerdan el poder transformador de la inteligencia artificial. Al reemplazar la óptica tradicional con modulación de fase y reconstrucción por IA, Fujifilm no solo está explorando un nuevo paradigma en la captura de imágenes, sino que también está abordando desafíos clave en miniaturización y privacidad. Este prototipo, aunque lejano de ser un producto de consumo masivo, sienta las bases para futuras aplicaciones que podrían revolucionar desde la fotografía móvil hasta la visión artificial en vehículos autónomos y sistemas de seguridad.

¡El futuro de la imagen es borroso… hasta que la IA lo aclare! ¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡iOS 26.1 es oficial! Apple lanza la gran actualización con nuevo botón deslizador para alarmas, diseño justificado a la izquierda y más idiomas para Apple Intelligence

0

¡Atención, Gurú Tecno Army! Ha pasado un mes y medio desde el lanzamiento de iOS 26, y Apple acaba de lanzar iOS 26.1 para todos los iPhone compatibles. Esta actualización, cargada de novedades, se puede considerar como la primera gran actualización del sistema operativo, ya que iOS 26.0.1 se centró en corregir errores. ¡La actualización ya se puede descargar y llega cargada de mejoras para tu iPhone!

Es importante destacar que iOS 26.0.1 había generado bastantes reportes de errores y problemas de sobrecalentamiento entre los usuarios. Esta nueva versión, iOS 26.1, debería corregir de forma sustancial estos fallos, ofreciendo una experiencia más estable y optimizada. Apple ha trabajado intensamente en esta actualización no solo para introducir nuevas funcionalidades, sino también para solucionar los inconvenientes reportados y asegurar un rendimiento fluido y eficiente en los iPhones compatibles. ¡Un alivio para quienes experimentaron problemas! Pero ojo, el sobrecalentamiento sigue siendo una queja común en iOS 26, y la optimización completa puede requerir futuras actualizaciones. 

Aquí tienes todas las novedades que llegan con iOS 26.1 a tu iPhone:

1. Liquid Glass a tu gusto La polémica estética de Liquid Glass recibe una mejora importante. Ahora, en iOS 26.1, tenemos un nuevo ajuste que nos permite controlar la transparencia de Liquid Glass. Podremos optar por la opción Traslúcido, más transparente y que permite ver lo que hay debajo, o por la opción Tintado, que aumenta la opacidad y proporciona mayor contraste. ¡Apple escucha a los usuarios!

2. Nuevo control para las alarmas En un claro guiño al pasado y al clásico «Deslizar para desbloquear», Apple ha modificado la forma de detener una alarma para evitar pulsaciones indeseadas. A partir de iOS 26.1, el botón de detener una alarma es un deslizador, reemplazando los dos enormes botones anteriores para posponer o parar.

3. Cambio de diseño: de centrado a justificado a la izquierda Durante años, Apple ha utilizado un diseño centrado en muchas partes de la interfaz. Pero con iOS 26.1 esto cambia en dos lugares: los Ajustes y las carpetas. Ahora la descripción superior de cada sección de los ajustes está justificada a la izquierda, igual que sucede con el nombre de las carpetas.

4. Apple Intelligence en más idiomas Apple Intelligence sigue con su expansión. Apple ha decidido añadir el danés, neerlandés, noruego, portugués (Portugal), sueco, turco, chino (tradicional) y vietnamita, idiomas que se añaden a la larga lista de lenguas en las que Apple Intelligence ya estaba disponible.

oneplus se burla iphone 17

Otras novedades de iOS 26.1 que merecen la pena

Además de estas novedades principales, en iOS 26.1 tenemos multitud de pequeños cambios:

  • Cámara en la pantalla de bloqueo: Ahora hay un botón en los ajustes de la cámara para permitir (o no) la función de deslizar en la pantalla de bloqueo para que aparezca la cámara.
  • Deslizar para cambiar canciones: Dentro de la app Música, si deslizamos el widget flotante donde aparece lo que está sonando, podemos cambiar entre canciones.
  • Vibraciones en llamadas: Ahora se pueden desactivar las vibraciones que el iPhone produce al descolgar o colgar una llamada.
  • Más idiomas para la traducción en tiempo real de los AirPods: La traducción en tiempo real de los AirPods ahora admite japonés, coreano, italiano y chino.
  • App Apple TV: La app Apple TV ha cambiado de diseño, que es más colorido que antes.
  • App Fotos: La app Fotos tiene un nuevo control deslizante cuando vemos un vídeo, y se han modificado ligeramente otros menús.
  • Safari: La barra de búsqueda inferior es más ancha y con menos relleno alrededor de los bordes.

Estamos ante una grandísima actualización para el iPhone que llega cargada de novedades. Además de esto, esta actualización también ha solucionado errores y corregido fallos de seguridad, además de mejorar el rendimiento general del sistema. Cualquier iPhone compatible con iOS 26 ya puede descargar iOS 26.1 desde Ajustes > General > Actualización de software.

Apple WWDC25 iOS 26

iOS 26.1 demuestra que Apple sigue puliendo y expandiendo la experiencia de usuario de sus iPhones. Las opciones de personalización para Liquid Glass, la mejora en la gestión de alarmas y la expansión de Apple Intelligence a más idiomas son claros ejemplos de que Apple está escuchando a su comunidad y adaptando su sistema operativo.

Con múltiples pequeñas mejoras y correcciones, esta actualización es esencial para cualquier usuario de iPhone que quiera tener la experiencia más fluida y completa posible. ¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Filtrado el Galaxy S26+! Primer vistazo a un diseño continuista con triple cámara y pantalla plana

0

¡Atención, Gurú Tecno Army! Un nuevo día trae una nueva filtración protagonizada por la esperada serie Samsung Galaxy S26. En esta oportunidad, le ha tocado el turno al Galaxy S26+, cuyo diseño se ha revelado al completo a través de nuevas imágenes basadas en archivos CAD que ha publicado Android Headlines.

El material en cuestión deja en claro que los usuarios no se van a topar con grandes sorpresas en este modelo, al menos en lo que respecta a su apariencia. El Galaxy S26+ mantendría una estética prácticamente sin alteraciones respecto de sus predecesores.

Tengamos en cuenta que el Galaxy S26+ fue motivo de muchos comentarios en el último tiempo. Primero se dijo que el modelo no se lanzaría, sino que sería reemplazado por el S26 Edge. No obstante, luego se conoció que Samsung supuestamente había cancelado la nueva generación de su modelo ultradelgado y que pensaba darle una nueva oportunidad a la variante Plus. Días atrás, se volvió a rumorar respecto del hipotético lanzamiento del Galaxy S26 Edge, pero que este no afectaría la disponibilidad del S26+. Sea como sea, ahora se ha filtrado el diseño de este último, que mantiene elementos bastante continuistas en la comparativa con las generaciones anteriores.

Samsung Galaxy S26 Plus AH exclusive render 2 1420x799 1

Según se aprecia en las imágenes, el Samsung Galaxy S26+ seguirá la línea de pantalla plana con bordes finos y uniformes. En la parte trasera, en tanto, continuará brindando una triple cámara con sensores posicionados de forma vertical sobre un módulo con forma de píldora.

Características rumoreadas del Samsung Galaxy S26+

Más allá del diseño, se espera que el Galaxy S26+ ofrezca prestaciones interesantes. La tabla de características técnicas sería bastante parecida a la del S26 estándar, pero con una pantalla más grande y otras modificaciones menores, como sucede habitualmente.

Tengamos en cuenta que los modelos Plus suelen ser de los menos vendidos dentro de la familia de buques insignia de Samsung. Será interesante ver si la historia cambia o no en 2026. Las principales especificaciones rumoreadas del Galaxy S26+ serían las siguientes:

  • Pantalla: 6,7 pulgadas (3120 x 1440) Super AMOLED con tasa de refresco adaptativa de 1 a 120 Hz.
  • Procesador: Samsung Exynos 2600. Se rumora que en algunos mercados podría usar el Snapdragon 8 Elite Gen 5 de Qualcomm.
  • Memoria RAM: 12 o 16 GB.
  • Almacenamiento: 256 o 512 GB.
  • Cámaras traseras: Sensor principal de 50 MP, ultra gran angular de 12 megapíxeles y teleobjetivo de 10 o 12 MP.
  • Cámara frontal: 12 MP.
  • Batería y carga: 4.900 mAh, con carga rápida cableada de hasta 45 vatios y carga inalámbrica de 15 vatios.
Galaxy S26 Plus

El Galaxy S26+, al igual que sus modelos hermanos, se presentaría un poco más tarde de lo pensado. De acuerdo con filtraciones previas, Samsung no los lanzaría en enero, como es costumbre, sino que retrasaría el evento dedicado a sus nuevos móviles hasta finales de febrero del próximo año.

En conclusión, el diseño filtrado del Samsung Galaxy S26+ confirma que Samsung opta por una estrategia conservadora en cuanto a estética. Si bien no hay grandes cambios visuales, las especificaciones rumoreadas, especialmente el potente procesador y la prometedora configuración de memoria y cámaras, sugieren que las mejoras se centrarán en el rendimiento interno y la experiencia del usuario. La gran incógnita sigue siendo si esta continuidad en el diseño, combinada con las mejoras internas, será suficiente para impulsar las ventas de la variante Plus en 2026. ¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Google recluta 10.000 usuarios de Pixel Watch 3 para detectar la hipertensión crónica! Un estudio de 180 días busca signos de presión arterial alta

0

¡Atención, Gurú Tecno Army! Según un informe publicado por Android Central, Google está dando un paso crucial en la integración de la salud y la tecnología al reclutar hasta 10.000 usuarios de Pixel Watch 3. El objetivo es impulsar la investigación y ayudarlos a tomar medidas proactivas para mejorar su salud cardiovascular. Estos voluntarios deberán usar un Pixel Watch 3 durante un máximo de 180 días para estudiar la presencia de signos de hipertensión arterial en sus datos de usuario.

¿Quién puede participar y cómo?

Los usuarios de Pixel Watch 3 pueden participar esta semana, pero la actividad no aplica actualmente para Pixel Watch 4 ni modelos anteriores. Los participantes deben ser ciudadanos estadounidenses mayores de 22 años y completar un cuestionario en inglés para determinar su elegibilidad. Google decidirá si acepta a los participantes según los resultados del cuestionario.

Para participar, los usuarios pueden tocar el icono de su perfil en la aplicación Fitbit, aceptar «Permitir que los datos se utilicen para investigación y desarrollo» y, a continuación, ver los proyectos de investigación de Fitbit Labs disponibles para participar.

Pixel 3 estudio hipertension

Tras participar en el Estudio de Hipertensión de Fitbit, algunos usuarios seleccionados recibirán un monitor de presión arterial que deberán usar junto con su reloj durante 24 horas y luego devolver. Google les proporcionará a estos participantes una tarjeta de regalo de 25 dólares como incentivo, mientras que los demás participantes no recibirán ninguna compensación.

El Pixel Watch 3 como herramienta de investigación

Google indica que activar el estudio sobre hipertensión arterial provocará un cambio leve y temporal en la duración de la batería del reloj, pero seguirá durando todo el día. Los sensores del Pixel Watch 3 trabajarán intensamente en segundo plano para detectar alertas de presión arterial alta, pero no proporcionarán ningún consejo médico ni información sobre la salud basada en los datos; estos se utilizan únicamente con fines de investigación.

google pixel watch 3 AH 1420x799 1

En el futuro, Google podría usar estos datos para que el Pixel Watch detecte precozmente el riesgo de hipertensión crónica, que puede derivar en enfermedades cardíacas o accidentes cerebrovasculares. A principios de este año, el Apple Watch incorporó una función de alerta de hipertensión tras recopilar datos de más de 100.000 participantes, lo que muestra el camino que Google busca seguir.

Detección de tendencias anómalas y entrenador personal de salud

Google también lanzó esta semana un segundo estudio llamado «Detección de tendencias anómalas», que alerta a los usuarios cuando sus métricas de salud muestran anomalías y proporciona datos de apoyo para la investigación. Cuando Google detecta indicadores de salud anómalos, notifica directamente a los usuarios y les pide que registren las posibles causas y síntomas, además de proporcionarles sugerencias de descanso y recuperación.

Pixel Watch 3 oferta

Además, Google está probando el Entrenador Personal de Salud de Fitbit, que utiliza datos del reloj inteligente para ofrecer información sobre las últimas tendencias de salud y responder preguntas sobre salud y estado físico. Esta investigación de Fitbit Labs ayudará a futuras versiones del entrenador a explicar las posibles causas de datos de salud negativos, como la hipertensión.

En definitiva, esta iniciativa de Google con el Pixel Watch 3 es un paso audaz y necesario para convertir los wearables en herramientas de salud preventiva más sofisticadas. La detección temprana de la hipertensión crónica podría tener un impacto masivo en la salud pública, y la ambición de Google de rivalizar con Apple en este campo es evidente. La combinación de estudios de datos a gran escala y funciones proactivas como la «Detección de tendencias anómalas» posiciona al ecosistema Fitbit-Pixel Watch como un actor clave en el futuro de la medicina personalizada y conectada.

¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Jensen Huang lo confirma! GPUs NVIDIA Rubin ya en producción y HBM4 de Samsung, SK Hynix y Micron en mano

0

¡Atención, Gurú Tecno Army! En un evento deportivo de TSMC el 8 de noviembre, Jensen Huang, CEO de NVIDIA, concedió una entrevista clave. Huang afirmó que el desarrollo comercial reciente de Nvidia ha sido sólido, mostrando una tendencia positiva de crecimiento mensual, y elogió el desempeño «sobresaliente» de TSMC.

Al hablar de la competencia global en el campo de la Inteligencia Artificial (IA), Jensen Huang señaló sin rodeos que la tecnología de IA tendrá un profundo impacto en todos los países, regiones y empresas, y que constituye el campo tecnológico más importante de nuestra época. Hizo hincapié en la importancia crucial de que las empresas inviertan en investigación y desarrollo de tecnología de IA.

Rubin en producción y fuerte demanda de Blackwell

Jensen Huang afirmó que Taiwán sigue desempeñando un papel fundamental en la industria global de fabricación de semiconductores. En cuanto a los productos y la cadena de suministro, Huang mencionó la fuerte demanda de los productos Blackwell de Nvidia, incluyendo no solo GPU, sino también CPU, chips de red, conmutadores y otros chips relacionados con Blackwell.

Y la gran revelación: Huang reveló que el producto Rubin de próxima generación ya se está produciendo y que TSMC está brindando pleno soporte a la demanda. Gurú Tecno ya había señalado previamente que se esperaba que la GPU Rubin entrara en producción en masa alrededor del tercer trimestre de 2026 o incluso antes. ¡Esta noticia adelanta considerablemente los plazos!

Blackwell GB200

Jensen Huang explicó con más detalle la estrategia tecnológica de NVIDIA: las GPU no solo se utilizan en el campo de la IA, sino también en computación científica, investigación cuántica, biología, física, procesamiento de datos y muchos otros campos. Su ecosistema abarca la nube y los centros de datos, y se extiende a aplicaciones como la automoción y la robótica.

HBM4 de los grandes fabricantes y superación de cuellos de botella

Al abordar los cuellos de botella en la cadena de suministro que han atraído la atención del mercado, Jensen Huang reconoció que la escasez en diferentes proyectos es inevitable durante períodos de rápido crecimiento. Sin embargo, expresó su agradecimiento a los tres principales proveedores de memoria —SK Hynix, Samsung y Micron— por haber ampliado significativamente su capacidad de producción para respaldar el desarrollo de Nvidia. También mencionó el excelente desempeño de TSMC en el suministro de obleas.

Al preguntársele si Samsung había suministrado la memoria más reciente (HBM4) para Blackwell, Huang respondió con modestia, afirmando que Nvidia posee las muestras de chips más avanzadas de diversas compañías. Esto implica que están trabajando con HBM4 de múltiples proveedores, asegurando el acceso a la tecnología de memoria de próxima generación.

Las declaraciones de Jensen Huang son un potente mensaje para el mercado. La confirmación de que las GPU Rubin ya están en producción y que NVIDIA tiene acceso a muestras de HBM4 subraya el liderazgo de la compañía en la carrera de la IA y la computación de alto rendimiento. A pesar de los desafíos de la cadena de suministro, NVIDIA, con el apoyo de gigantes como TSMC, SK Hynix, Samsung y Micron, está acelerando el desarrollo de la próxima generación de hardware, consolidando su posición en un ecosistema tecnológico que va mucho más allá de los modelos de IA.

¡El futuro de la computación pasa por NVIDIA! Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡Alerta WEF! 40% de habilidades laborales obsoletas en 2030: 170M nuevos empleos vs. 92M extintos

0

Por primera vez en décadas, el Foro Económico Mundial (WEF) ha puesto cifras concretas a un cambio que ya se siente en el mercado laboral. Su informe Future of Jobs Report 2025 es claro: casi cuatro de cada diez habilidades laborales actuales dejarán de ser relevantes antes de 2030. Esta revolución laboral generará 170 millones de nuevos empleos impulsados por la tecnología, la transición verde y los cambios demográficos, pero también se extinguirán 92 millones de puestos en el mismo periodo.

El resultado, aunque un balance positivo de 78 millones de empleos nuevos, viene con una exigencia clara: quien no se actualice, quedará fuera.

El nuevo mapa del empleo: sectores crecientes y sorpresas

El estudio del WEF, basado en encuestas a más de 1.000 grandes empresas que representan a 14 millones de trabajadores en 55 economías, dibuja un panorama donde tendencias globales como el cambio tecnológico, la transición ecológica, la incertidumbre económica y el envejecimiento poblacional serán las fuerzas transformadoras.

Sorprendentemente, los sectores que más crecerán no siempre son los más ‘futuristas’. Los agricultores y trabajadores del campo encabezan el listado de profesiones con mayor aumento neto, con 34 millones de nuevos puestos gracias a la digitalización rural y la expansión de la economía verde.

Jobs Report 2025 1

También aumentará la demanda de conductores de reparto, desarrolladores de software, obreros de la construcción y vendedores minoristas. En paralelo, los empleos ligados al cuidado —enfermería, trabajo social o acompañamiento psicológico— crecerán impulsados por el envejecimiento poblacional y el aumento de las necesidades de atención personal.

La mitad de las habilidades de hoy no servirá mañana

El dato más inquietante del informe es que el 39% de las competencias necesarias para trabajar cambiará o se volverá obsoleto en los próximos cinco años. En otras palabras, casi la mitad de lo que hoy sabemos hacer dejará de ser suficiente. La disrupción será especialmente rápida en sectores como la informática, las telecomunicaciones y la logística, donde la automatización, la IA y el análisis de datos avanzan a un ritmo vertiginoso.

Pero la obsolescencia no afecta solo a las habilidades técnicas; también cambiará el peso de las llamadas soft skills, esas capacidades humanas que permiten adaptarse, liderar o innovar en entornos de incertidumbre. El mensaje es claro: las empresas buscarán profesionales capaces de entender y aprovechar las tecnologías emergentes, pero también de liderar, aprender constantemente y adaptarse a entornos cambiantes.

El auge de las competencias tecnológicas… y humanas

El informe distingue dos grupos de habilidades que se fortalecerán en paralelo:

  • Las tecnológicas: Encabezadas por la IA, el análisis de datos, la ciberseguridad y la alfabetización digital, crecerán más rápido que cualquier otra categoría.
  • Las humanas: Como el pensamiento creativo, el liderazgo, la empatía o el aprendizaje permanente, serán las que permitan que esas tecnologías se usen de manera ética, eficiente y sostenible.
inteligencia artificial operator

En palabras del propio Foro, el trabajador del futuro deberá «equilibrar competencias duras y blandas para prosperar en entornos laborales híbridos y digitales».

Reentrenarse o quedarse atrás: una brecha preocupante

El informe señala que la mitad de los trabajadores del mundo ya ha participado en algún programa de formación o actualización en 2025, frente al 41% que lo hacía en 2023. Lo preocupante es que, para 2030, uno de cada diez trabajadores necesitará reentrenamiento y no tendrá acceso al mismo, una brecha que amenaza con profundizar las desigualdades laborales.

El Foro Económico Mundial insiste en que la clave no será dominar una tecnología concreta, sino cultivar la capacidad de aprender, desaprender y reaprender de manera continua. La adaptabilidad, más que cualquier conocimiento técnico puntual, será la moneda de cambio en la economía del futuro.

La conclusión es que el Future of Jobs Report 2025 del WEF es una llamada de atención urgente. La IA y la tecnología no van a destruir el empleo, sino a transformarlo radicalmente. La capacidad de adaptación, el pensamiento crítico, la creatividad y el aprendizaje continuo serán tan o más valiosos que las habilidades técnicas específicas.

Estamos ante una era de reinvención masiva donde la formación y el acceso a ella serán determinantes para la inclusión laboral. ¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Un nuevo «superantibiótico» contra el SARM y ERV! Descubren lactona pre-metilenomicina C, 100 veces más potente que su derivado

0

La resistencia antimicrobiana (RAM), que genera las temidas «superbacterias», es uno de los desafíos de salud pública más apremiantes a nivel mundial. Un informe reciente de la Organización Mundial de la Salud (OMS) ya señalaba una grave escasez de fármacos antimicrobianos en desarrollo, con una inversión limitada debido a la complejidad y falta de incentivos comerciales.

Pero ahora, un equipo de químicos de la Universidad de Warwick (Reino Unido) y la Universidad de Monash (Australia) ha descubierto un prometedor antibiótico: la lactona pre-metilenomicina C. Esta sustancia es capaz de eliminar superbacterias como el Staphylococcus aureus resistente a la meticilina (SARM) y los enterococos resistentes a la vancomicina (ERV). Los hallazgos se publicaron en la prestigiosa revista Journal of the American Chemical Society el 27 de octubre.

«Oculto a plena vista»: un intermediario olvidado

Lo más sorprendente de este descubrimiento es que esta sustancia en realidad ha estado «oculta a plena vista»: es un producto químico intermedio que se produce durante la preparación del antibiótico de uso común metilenomicina A, descubierto hace 50 años.

«La metamicina A se descubrió hace 50 años y, aunque se ha sintetizado muchas veces, parece que nadie ha probado la actividad antibacteriana de los intermediarios sintéticos», dijo Greg Challis, profesor de la Universidad de Warwick y de Monash, y coautor correspondiente del estudio.

Añadió: «Al eliminar los genes biosintéticos relevantes, descubrimos dos intermediarios biosintéticos previamente desconocidos, ambos con una potencia antibacteriana muy superior a la de la propia metamicina A».

100 veces más potente y sin signos de resistencia

Este estudio descubrió que la lactona de prometomomicina C (un intermediario en la síntesis de memetomomicina A) exhibe una actividad antibacteriana más de 100 veces superior contra diversas bacterias Gram-positivas que el antibiótico original memetomomicina A. Los experimentos demostraron su eficacia contra Staphylococcus aureus, causante de SARM, y enterococos resistentes a la vancomicina, causantes de ERV.

Otra coautora, Lona Alkhalaf, profesora asistente de la Universidad de Warwick, afirmó: «Resulta sorprendente que el actinomiceto que produce las lactonas de metamicina A y premetimicina C —Streptomyces coelicolor— sea una bacteria modelo productora de antibióticos que se ha estudiado extensamente desde la década de 1950. Es verdaderamente inesperado encontrar un nuevo antibiótico en un microorganismo tan conocido».

superantibiotico en desarrollo

Señaló: «Parece que S. coelicolor evolucionó originalmente para producir un potente antibiótico (lactona de prometamidocina C), pero luego lo modificó gradualmente hasta convertirlo en un antibiótico más débil —metamidocina A— que puede desempeñar un papel diferente en la fisiología bacteriana».

Cabe destacar que, en los experimentos, los investigadores no detectaron signos de resistencia a la pre-metoximetileno C lactona, mientras que estas cepas sí desarrollaron resistencia a la vancomicina en las mismas condiciones. Dado que la vancomicina se considera un último recurso en el tratamiento de las infecciones por enterococos, este hallazgo es significativo para abordar la resistencia respiratoria variable (ERV).

El profesor Charles afirmó: «Este descubrimiento ofrece un nuevo enfoque para el desarrollo de antibióticos. Al identificar y probar intermediarios en las rutas biosintéticas de compuestos naturales, podríamos encontrar nuevos antibióticos más potentes y menos resistentes, lo que proporcionaría nuevas armas en la lucha contra la resistencia antimicrobiana».

Los investigadores señalan que la lactona C de premetoxicina tiene una estructura simple, una actividad fuerte, es difícil que induzca resistencia a los medicamentos y es fácil de sintetizar, lo que la convierte en una candidata prometedora para una nueva generación de fármacos antibacterianos, brindando una nueva esperanza a los más de 1,1 millones de personas en todo el mundo que mueren cada año por infecciones resistentes a los antibióticos.

nuevos superantibioticos

En conclusión, este descubrimiento es un rayo de esperanza en la sombría batalla contra las superbacterias. La lactona pre-metilenomicina C no solo es sorprendentemente potente y eficaz contra cepas resistentes, sino que su origen «oculto a plena vista» abre una nueva vía de investigación para encontrar fármacos en lugares inesperados.

La promesa de un nuevo antibiótico con baja probabilidad de inducir resistencia y fácil síntesis podría salvar millones de vidas y cambiar drásticamente el curso de la lucha contra la resistencia antimicrobiana. ¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Apple lanzará Apple Intelligence en 2026! Gurman revela el plan propio de IA, mientras paga $1.000M a Google por un Gemini personalizado de 1,2 billones para una Siri «secreta»

0

En el boletín informativo Power On de hoy, el reportero de Bloomberg, Mark Gurman, ha desvelado que Apple lanzará un modelo de Apple Intelligence completamente desarrollado internamente tan pronto como el próximo año, con una ambiciosa cifra de un billón de parámetros.

Esta noticia llega con un trasfondo complejo. Gurman informó previamente que Apple pagará aproximadamente 1.000 millones de dólares anuales para mejorar Siri utilizando un modelo personalizado de Google Gemini con 1,2 billones de parámetros. Este modelo de Google supera con creces los aproximadamente 150.000 millones de parámetros del modelo actual de Apple Intelligence basado en la nube.

El secreto de Apple y la colaboración con Google

Gurman afirmó que resulta cada vez más evidente que Apple no tiene intención de divulgar públicamente esta colaboración ni el hecho de que Siri se basará parcialmente en tecnología de la competencia. Internamente, Apple se refiere al modelo desarrollado por Google como AFM v10 (abreviatura de la versión 10 de sus Apple Foundation Models). El motivo es sencillo: evitar revelar la conexión con Google, prevenir confusiones entre empleados y clientes, y recalcar que la infraestructura aún se superpone significativamente con los sistemas internos de Apple.

siri apple

Aun así, la adopción de un modelo desarrollado por Google para renovar por completo Siri demuestra los esfuerzos necesarios de Apple para llevar la nueva experiencia al mercado sin contratiempos. Es encomiable que Apple haya dejado de lado su orgullo y no esté escatimando gastos para lanzar un producto que cumpla con las expectativas de los usuarios, lo que supone un cambio con respecto a sus hábitos de gasto, generalmente cautelosos. Esta decisión recuerda a la que tomó la compañía en 2020: a pesar de años de batallas legales con Qualcomm, decidió utilizar módems de Qualcomm para habilitar la compatibilidad con 5G en la serie iPhone 12.

El camino hacia la independencia en IA: un billón de parámetros

Gurman afirmó que, así como Apple finalmente pudo comenzar la transición a su propia tecnología de módem, la compañía también planea dejar de depender del modelo Gemini de Google. Esto no será fácil. En los últimos meses, Apple ha perdido a varios investigadores y desarrolladores de modelos de IA de alto nivel.

Sin embargo, el objetivo de la compañía sigue siendo ambicioso: lanzar un modelo de Apple Intelligence completamente desarrollado internamente con un billón de parámetros para los consumidores el próximo año. No obstante, Gurman aclara que este modelo interno de un billón de parámetros no podrá soportar la nueva versión de Siri.

Siri apple

En definitiva, el informe de Mark Gurman dibuja un panorama fascinante y complejo en la estrategia de IA de Apple. La inversión de mil millones de dólares en Google Gemini para potenciar a Siri muestra un pragmatismo inusual para Apple, priorizando la experiencia del usuario por encima del desarrollo puramente interno a corto plazo. Sin embargo, la ambición a largo plazo sigue intacta, con el desarrollo de un modelo propio de un billón de parámetros. La tensión entre la dependencia externa y la autonomía interna, junto con el «secreto» sobre la colaboración con Google, define la encrucijada de Apple en la era de la IA.

¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Mark Cerny revela el futuro de PS6! Un «PC consolizado» sin revolución bruta, pero con Neural Arrays (IA) y Radiance Cores (Ray Tracing) bajo la arquitectura RDNA 5

0

¡Atención, Gurú Tecno Army! Mark Cerny, el ingeniero jefe de hardware en PlayStation y la mente maestra detrás de las arquitecturas de PS4, PS4 Pro, PS5 y PS5 Pro, ha soltado una bomba en una reciente entrevista con Digital Foundry. Según Cerny, PS6 no será revolucionaria por su potencia bruta en rasterizado, sino que su futuro y su potencial estarán definidos por el trazado de rayos y el aprendizaje profundo.

Estas dos tecnologías son las que, según Cerny, van a marcar el gran salto entre la generación actual de consolas y PS6. Cuando se le preguntó dónde quedaría el salto en rasterización, Cerny dijo que este tema también es importante, pero se limitó a indicar que harán las mejoras «que sean posibles». No quedará en segundo plano, pero indica que tampoco nos va a sorprender.

Project Amethyst: Neural Arrays y Radiance Cores en RDNA 5

Sabemos que Sony y AMD están trabajando juntas en Project Amethyst, y ya conocemos tres de las tecnologías que van a definir las capacidades de PS6:

  1. «Neural Arrays»: Permite que todas las unidades de computación de la GPU trabajen como un bloque único, mejorando el rendimiento en IA.
  2. «Radiance Cores»: Son núcleos de nueva generación específicamente diseñados para trazado de rayos.
  3. Compresión universal: Una de las más interesantes y que más dudas ha generado. Según Mark Cerny, con ella se podrán comprimir numerosos elementos en juegos para reducir el consumo de ancho de banda y de memoria, mejorando el rendimiento.
pS6 filtraciones

Todas estas tecnologías estarán presentes en la arquitectura RDNA 5 de AMD.

La idea que plantea Cerny es la misma que vimos en 2018 con la llegada de las GeForce RTX 20 a PC: trazado de rayos para mejorar la calidad gráfica y el realismo en juegos a través de la iluminación, y uso de inteligencia artificial para contrarrestar el impacto que el trazado de rayos tiene a nivel de rendimiento, aunque esta última con un enfoque más avanzado y acorde a los tiempos que corren.

PS6: un «PC consolizado» y hardware universal

El ingeniero también ha reconocido que con PS6 ya no están trabajando en tecnologías exclusivas para la consola, sino que están colaborando con AMD para desarrollar todo el nuevo ecosistema de hardware y de tecnologías sobre el que se apoyará dicha consola. Y lo más importante: ese hardware y ese ecosistema de tecnologías también estarán disponibles en otras consolas y en PC, según el propio Cerny.

Esto nos dice algo muy importante: PS6 será, más que nunca, un PC consolizado, al igual que Xbox Next. Con PS4 se acabó el uso de hardware especializado no disponible en PC, como el procesador Cell de PS3 o el Emotion Engine de PS2. En general, todas las consolas han seguido el mismo camino, y es lógico, porque es el más sencillo y el más rentable.

En definitiva, las declaraciones de Mark Cerny sobre PS6 son reveladoras. Sony parece estar apostando por una estrategia de convergencia, donde el ray tracing y la IA serán los verdaderos diferenciadores, más que un salto brutal en la potencia de rasterizado. La colaboración con AMD para un hardware universal que llegue también a PC y otras consolas es una muestra de pragmatismo y de la madurez del mercado. PS6 se perfila como una máquina potente y avanzada, pero que compartirá gran parte de su ADN tecnológico con el ecosistema del PC.

¡El futuro del gaming está en la IA y el realismo de la luz! ¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¿Wall Street pierde la fe en la IA? Nasdaq cae un 3% en su peor semana desde los aranceles de Trump. ¡Palantir -11%, Oracle -9%, Nvidia -7%!

0

Tras un año de euforia ininterrumpida por la Inteligencia Artificial, la última semana ha sembrado dudas en los mercados. El Wall Street Journal informa que el Nasdaq Composite Index cayó un 3%, registrando su peor semana desde que el expresidente Donald Trump anunció su plan arancelario en abril. La pregunta que flota en el aire es: ¿está perdiendo Wall Street la fe en la IA?

Las empresas tecnológicas que han tenido un rendimiento estelar este año fueron las más afectadas. Palantir vio caer el precio de sus acciones un 11% esta semana, Oracle disminuyó un 9%, y Nvidia, la joya de la corona de la IA, perdió un 7%. Estas caídas son especialmente notables porque se producen después de informes de ganancias en los que gigantes como Meta y Microsoft indicaron que planean continuar invirtiendo fuertemente en IA (ambas compañías también cayeron alrededor del 4%).

¿Valuaciones estiradas o malas noticias exageradas?

«Las valuaciones están estiradas», dijo Jack Ablin, de Cresset Capital, al WSJ. «La más mínima mala noticia se exagera… y las buenas noticias simplemente no son suficientes para mover la aguja porque las expectativas ya son bastante altas». Esta declaración sugiere que el entusiasmo desmedido por la IA podría haber llevado a valoraciones excesivas, haciendo que el mercado sea hipersensible a cualquier señal negativa.

Inteligencia Artificial IA

Aunque factores económicos como el continuo shutdown del gobierno (en su momento), la disminución de la confianza del consumidor y los despidos generalizados también están arrastrando probablemente al mercado de valores, el hecho de que el S&P 500 y el Dow Jones Industrial Average (menos dependientes del sector tecnológico) no sufrieran tanto (con caídas del 1,6% y 1,2% respectivamente) pone el foco directamente en el sector tecnológico y, por extensión, en la IA.

En resumen: ¿Una corrección saludable o el inicio de algo más grande?

La reciente caída en las acciones tecnológicas sugiere que los inversores están reevaluando la sostenibilidad del rally impulsado por la IA. Podría ser una corrección saludable del mercado, donde las expectativas excesivamente altas se encuentran con la realidad de los ciclos económicos y las complejidades del desarrollo de la IA. O, para los más pesimistas, podría ser una señal temprana de una pérdida de confianza más profunda.

Esta semana ha sido un recordatorio contundente de que incluso las megatendencias como la Inteligencia Artificial no son inmunes a las fluctuaciones del mercado. La presión sobre las valoraciones y la sensibilidad a las noticias, incluso cuando las compañías apuestan fuerte por el futuro de la IA, indican que el «efecto IA» en bolsa está bajo un escrutinio más severo que nunca. La resiliencia de la «burbuja» de la IA será puesta a prueba en los próximos meses.

¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Tesla retrasa el Roadster 2! Musk promete la demo «más emocionante de la historia» y «un coche muy diferente»

0

¡Atención, Gurú Tecno Army! El superdeportivo eléctrico más esperado de Tesla, el Roadster de segunda generación, se hará esperar un poco más, y la fecha elegida por Elon Musk para su revelación es, cuanto menos, curiosa: el 1 de abril de 2026, ¡el Día de los Inocentes! que se lleva a cabo en países de habla inglesa y otras partes del mundo. Esto lo anunció el CEO durante la junta anual de accionistas de Tesla, casi nueve años después de que el proyecto fuera revelado por primera vez.

Musk, famoso por sus deadlines incumplidas, dijo que eligió esta fecha en parte porque le brinda «algo de negación». «Podría decir que solo estaba bromeando», si la fecha de lanzamiento se retrasa aún más, bromeó.

Revelar la versión de producción del nuevo Roadster el próximo año ya es, en sí mismo, un retraso. Apenas una semana antes, en el podcast de Joe Rogan, había repetido su afirmación de que quería mostrar el coche antes de fin de año.

Un Roadster «muy diferente» y posiblemente volador

Musk enfatizó que el coche «será muy diferente de lo que se mostró previamente», y volvió a teasear que la demo será la «más emocionante, funcione o no, demo de cualquier producto jamás». Una referencia no tan sutil al hecho de que ha pasado años intentando que el nuevo Roadster vuele de alguna manera, posiblemente con propulsores construidos por SpaceX.

tesla roadster 000

Musk continuó diciendo que cree que el Roadster de segunda generación no entrará en producción hasta 12 a 18 meses después de la revelación de abril.

Los «sufridos» titulares de reservas y el drama con Sam Altman

Durante la sesión de preguntas y respuestas de la reunión, un accionista preguntó a Musk si los clientes que preordenaron la versión «Founders Series» del nuevo Roadster podrían ser invitados al evento de revelación. Estos fueron los clientes que desembolsaron 250.000 dólares en 2017 para asegurar versiones especiales del coche. «Claro, absolutamente», respondió Musk. «Es lo mínimo que podemos hacer por nuestros sufridos titulares de reservas del Roadster».

nuevo tesla roadster 09

Entre esos «sufridos» se encuentra Sam Altman, CEO de OpenAI, quien recientemente intentó cancelar su reserva —e inicialmente no consiguió un reembolso— del largamente prometido EV. A principios de este mes, Altman publicó en X «un cuento en tres actos», mostrando capturas de pantalla de su reserva inicial, una solicitud de reembolso de la tarifa de reserva de 50.000 dólares, y su correo rebotando. «¡Realmente estaba emocionado por el coche!», escribió Altman. «Y entiendo los retrasos. Pero 7 años y medio se ha sentido como mucho tiempo de espera».

Musk, quien ha mantenido una disputa abierta con Altman durante años, no dudó en atacar. «Y se te olvidó mencionar el acto 4, donde este problema se solucionó y recibiste un reembolso en 24 horas», escribió Musk. «Pero eso es de tu naturaleza».

nuevo tesla roadster 07

Este anuncio del Roadster 2 es una mezcla de emoción por la promesa de un superdeportivo revolucionario y la ya habitual saga de plazos de Elon Musk. La idea de un coche «muy diferente», posiblemente con capacidades de vuelo gracias a SpaceX, mantiene la expectación por las nubes. Sin embargo, el drama con Sam Altman y la prolongada espera de los reservistas recuerdan que las visiones audaces de Musk a menudo vienen acompañadas de un camino largo y lleno de curvas.

¡Estaremos atentos para ver si el 1 de abril de 2026 trae la demo «más emocionante de la historia» o solo «algo de negación» extra! ¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Meta lanza Vibes en España! El feed de vídeos generados con IA llega para competir con Sora de OpenAI

0

¡Atención, Gurú Tecno Army! Meta ha traído a España su controvertida apuesta por los vídeos generados con Inteligencia Artificial: Vibes. Lanzada originalmente en septiembre, esta nueva app de Meta AI busca dar rienda suelta a la creatividad a través de vídeos, popularmente conocidos como «AI Slop».

El objetivo principal inicial de Meta era competir directamente con TikTok, pero tras la irrupción brutal de Sora de OpenAI, la batalla se ha trasladado a otro espacio donde la IA es la base de la generación de vídeos. Vibes ya está disponible en España a través de la app Meta AI, también lanzada este año, y se centra en la generación de vídeos con IA, aunque con un matiz distinto al de Sora.

Vibes vs. Sora: la diferencia clave

La principal distinción entre ambas plataformas reside en su enfoque de generación:

  • Vibes solo permite generar vídeos desde prompts (descripciones de texto).
  • Sora se caracteriza por dar la posibilidad de usar la imagen del propio usuario, mascota u objeto inanimado como base para esos vídeos, lo que le otorga una dimensión más personal.
Manage AI Glasses Get Help With Meta AI 1

El despliegue en Europa y España llega a las seis semanas de que Meta introdujera el feed en Estados Unidos, lo que demuestra la rapidez con la que la compañía quiere expandir esta tecnología. Se puede descargar desde la Google Play Store o la App Store.

Una «experiencia colaborativa e inherente social»

Este feed de Vibes pretende ser una especie de red social, ya que permite remezclar vídeos de otros, al igual que hacemos en Sora, aunque con la distinción de hacerlo del cameo (imagen personal de otro usuario). Se pueden añadir nuevas visuales, una capa para poner algo de música o ajustar los estilos para determinar cómo será el vídeo final que se suba a Vibes y que otros usuarios puedan reproducir.

Meta, desde su blog, lo define como «una experiencia colaborativa e inherentemente social, donde se anima a remezclar y construir historias junto con amigos». Y añade que «Vídeos y el contenido puede ser compartido y publicado directamente en el feed de Vibes, enviarse a contactos o publicar de forma cruzada a las Stories y Reels de Instagram y Facebook».

Meta Vibes lanzamiento

El reto del «AI Slop» y la autenticidad

Sin embargo, cuando se lanzó Vibes en septiembre, no recibió la acogida que quizás esperaba Meta, ya que prácticamente es un feed de vídeos AI Slop (contenido digital de baja calidad hecho con IA de forma masiva). Este tipo de vídeos se está expandiendo rápidamente por Instagram y Facebook, y muchos usuarios lo están rechazando, lo que hace que una app dedicada no esté siendo «plato de buen gusto».

Lo peculiar de su lanzamiento, según TechCrunch, es que la propia Meta dijo a principios de este año que estaba «luchando» contra el contenido «poco original» y aconsejó a los creadores que se enfocaran en «narrativa auténtica».

El despliegue de Vibes en España tiene que ver más con la carrera por la inteligencia artificial generativa en todos sus frentes, y uno es el de los vídeos generados con IA, donde Meta ha de luchar con Sora, que ha irrumpido de una forma brutal.

El lanzamiento de Vibes en España es un movimiento estratégico de Meta para no quedarse atrás en la carrera de la IA generativa de vídeo. Sin embargo, enfrenta el doble desafío de competir con la potente Sora de OpenAI y, al mismo tiempo, gestionar la percepción de sus propios usuarios sobre el «AI Slop». La clave estará en si Meta puede evolucionar Vibes hacia una herramienta que realmente impulse la creatividad y la colaboración, superando la etiqueta de contenido «poco original» y encontrando su nicho en el saturado mercado de los vídeos cortos.

¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Tesla expande Robotaxi a 5 nuevas ciudades! Las Vegas, Miami, Phoenix, Dallas y Houston serán las próximas en recibir el servicio autónomo

0

¡Atención, Gurú Tecno Army! Tesla ha confirmado que su revolucionario servicio Robotaxi se lanzará en cinco ciudades más de EE. UU. en los próximos meses, marcando un paso significativo en la ambiciosa estrategia de movilidad autónoma de la compañía.

Tesla lanzó su servicio Robotaxi en Austin, Texas, a finales de junio, seguido de un lanzamiento en el Área de la Bahía de San Francisco unas semanas después. Desde entonces, la compañía ha continuado expandiendo su servicio a otros estados y ciudades de Estados Unidos e incluso a mercados internacionales.

Robotaxi es un servicio de transporte a demanda ofrecido por Tesla, pero su modelo operativo específico varía debido a las diferentes regulaciones locales. Por ejemplo:

  • En Austin, puede operar sin conductor de seguridad siempre que el vehículo no entre en la autopista.
  • En el Área de la Bahía, se requiere un «Monitor de Seguridad» que ocupe el asiento del conductor y asuma las responsabilidades del operador del vehículo, mientras el sistema FSD (Full Self-Driving) controla el vehículo.

Las políticas regulatorias en diversas regiones y las estrategias de Tesla para cumplir con los requisitos normativos seguirán siendo un foco de atención, especialmente a medida que la compañía planea expandir su programa Robotaxi a más regiones. Esta expansión comercial se ha convertido en una prioridad estratégica para Tesla en los últimos meses, particularmente en su mercado local, Estados Unidos.

tesla robotaxi cybercab real

Las cinco nuevas ciudades confirmadas

Elon Musk, CEO de Tesla, ya había declarado anteriormente que la compañía tenía previsto lanzar servicios de robotaxis en Nevada, Arizona y Florida. En su junta general de accionistas de este jueves, la compañía especificó las cinco ciudades donde lanzará su servicio en la próxima fase: Se anuncia que su servicio Robotaxi se lanzará próximamente en Las Vegas, Phoenix, Dallas, Houston y Miami, ampliando así su cobertura a más ciudades importantes de Estados Unidos.

Tesla ha declarado que planea que el servicio esté disponible para la mitad de la población estadounidense para finales de este año.

La expansión del servicio Robotaxi de Tesla a estas cinco nuevas ciudades es una clara señal de que la compañía está acelerando su ambición de dominar el mercado del transporte autónomo. Adaptándose a las complejidades regulatorias y expandiéndose a mercados clave, Tesla busca no solo demostrar la viabilidad de su tecnología FSD, sino también establecer una red robusta de movilidad a demanda. La meta de cubrir a la mitad de la población de EE. UU. para finales de año es ambiciosa, pero si Tesla lo logra, podría redefinir el futuro del transporte personal en el país.

¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTubeInstagram y Facebook.

¡Oferta Flash! ¿Google Pixel 9 con 6 años de actualizaciones, chip Tensor G4, cámaras 50+48MP y OLED 120Hz por menos de 500€? ¡Corre antes del 10 de noviembre!

0

¡Atención, Gurú Tecno Army! Si estabas buscando un smartphone con una relación calidad-precio excepcional y el sello de Google, tu momento ha llegado. MediaMarkt ha lanzado una oferta que dejará boquiabiertos a muchos: el Google Pixel 9 en su versión de 128 GB se puede conseguir por tan solo 499 euros.

Para aprovechar esta ganga, solo tienes que aplicar el código ‘TradeInPixel9100Nov’ (sin las comillas) cuando hayas añadido el móvil a la cesta de la compra. ¡Pero ojo! Este cupón solo estará disponible hasta el 10 de noviembre a las 9 de la mañana, así que la prisa es clave.

Google Pixel 9: Un gama alta asequible con garantía de futuro

A pesar de que Google ya lanzó el Pixel 10 hace unos meses, el Google Pixel 9 sigue siendo una opción de compra fantástica hoy en día. ¿Por qué es un caballo ganador, especialmente a este precio?

  • Actualizaciones garantizadas: Ofrece la promesa de seis años de actualizaciones del sistema operativo, lo que asegura una vida útil prolongada y segura.
  • Pantalla Super Actua OLED: Cuenta con una vibrante pantalla de 6,3 pulgadas con resolución de 2.424 x 1.080 píxeles, compatible con HDR10+ y una fluida tasa de refresco de 120 Hz.
  • Rendimiento potente: Funciona con Android puro y está impulsado por el chip Google Tensor G4, acompañado de 12 GB de RAM y 128 GB de almacenamiento interno.
  • Sistema fotográfico sobresaliente: Destaca por su doble cámara trasera de 50 + 48 MP, garantizando fotos de alta calidad.
  • Resistencia: Posee certificación IP68, lo que lo hace resistente al agua y al polvo.
  • Carga rápida: Admite carga rápida a 45 W.
google pixel 9 pro 9

¿Buscas el último modelo con descuento? ¡También hay!

Si el Google Pixel 9 no te basta y buscas el modelo más reciente, también estás de suerte. El Google Pixel 10 está ahora en MediaMarkt con 100 euros de descuento. Aplicando el código ‘TradeInPixel10100Nov’ (también sin comillas y con la misma vigencia que el del Pixel 9), puedes comprar este móvil por 699 euros.

Google Pixel 10 IA

Estas ofertas de MediaMarkt son una oportunidad de oro para conseguir un smartphone de la gama Pixel de Google a un precio excepcional. Tanto el Pixel 9 como el Pixel 10 ofrecen una experiencia Android pura, cámaras de primera línea y, lo más importante, una garantía de actualizaciones a largo plazo que pocos fabricantes pueden igualar. ¡No dejes escapar esta oferta limitada!

Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Jensen Huang lo deja claro: “Sin TSMC, Nvidia no existiría”

0

El CEO de Nvidia, Jensen Huang, visitó recientemente el campus de TSMC en Hsinchu (Taiwán) para participar en los juegos deportivos de la compañía, un evento interno que nunca antes había abierto a clientes externos en 38 años. En ese escenario, Huang dedicó un discurso memorable a más de 20.000 empleados de TSMC, destacando su vínculo con la fundición y afirmando sin pelos en la lengua: “Sin TSMC, no habría Nvidia”.

Este acto —y sus declaraciones— adquieren mayor peso si lo ponemos en contexto técnico: estamos ante la columna vertebral de la IA moderna, con una empresa que lidera el hardware y otra que es la fábrica más avanzada del planeta. Pero vayamos por bloques, porque hay mucho que rascar.

Jensen Huang campus TSMC

La arquitectura Blackwell: mucho más que una GPU

– Diseño y proceso de fabricación

  • Blackwell está fabricada mediante el proceso TSMC 4NP (una versión personalizada del 4 nm de TSMC) para uso en centros de datos. En su lanzamiento, Nvidia afirma que sus GPU Blackwell interiorizan 208 000 millones de transistores en total (estructura dual de dies), gracias a un diseño con dos dados “reticle-limit” unidos para funcionar como un solo chip.
  • En la variante de consumo se habla de nodos TSMC 4N, más conservadores, lo que indica que Nvidia apostó por estabilidad en lugar de “solo” reducir nodo para la versión desktop.
arquitectura Blackwell

– Arquitectura interna

  • Blackwell integra una gran cantidad de “Streaming Multiprocessors” (SMs), tensor cores, RT cores, etc. Por ejemplo, según la hoja técnica de Nvidia: “GB202 GPU incluye 12 GPCs, 96 TPCs, 192 Streaming Multiprocessors…”
  • El nuevo chip hace hincapié no solo en cálculo en coma flotante (FP32, FP16) sino en formatos más agresivos para IA (BFLOAT16, INT4/INT8) e integra un gran ancho de cache L2 para reducir latencias de memoria.

– ¿Por qué no 3 nm en todas las variantes?

  • A pesar de rumores, para ciertas piezas de Blackwell Nvidia ha mantenido 4N/4NP en lugar del salto a 3 nm, lo que se atribuye a riesgos de rendimiento/yield en grandes dies monolíticos y al uso de packaging avanzado. Eso no quiere decir que 3 nm no vaya a venir: la hoja de ruta de Nvidia contempla la microarquitectura Rubin, que sí utilizaría 3 nm.

La cadena de suministro: TSMC como pilar absoluto

– Capacidad y prioridad de Nvidia

  • Según Digitimes, TSMC planea más que doblar su producción de packaging CoWoS (Chip-on-Wafer-on-Substrate) para 2025, y Nvidia se habría asegurado hasta el 60 % de esa capacidad.
  • Un informe de Tom’s Hardware estima que en 2025 Nvidia podría consumir hasta un 77 % de las obleas de semiconductores dedicadas a IA.
  • Para el nodo 3 nm, se reportó que TSMC elevó la producción hasta ? 160 000 oblea/mes para cubrir la demanda de Nvidia.

– Packaging y tecnología avanzada

  • TSMC está totalmente “booked” con packaging avanzado: se estima que para fin de 2025, su módulo SoIC (chip-stacking) alcanzará 10 000 unidades/mes, mientras CoWoS alcanzará ~45-50k unidades/mes.
  • Importante: Blackwell no solo es “un gran chip”, sino que su rendimiento depende tanto del silicio como del empaquetado avanzado (links de alta velocidad, retícula múltiple, etc.).

– Por qué esta alianza importa

  • Huang, en su discurso en TSMC, no estaba solo agradeciendo: estaba poniendo la insuficiencia de otro modelo de producción (fabless + fundición “cualquiera”) frente a una alianza estratégica profunda.
  • TSMC no es solo un “proveedor”, es más parecido a un socio de ingeniería y producción clave que decide, prioriza y optimiza para un número muy reducido de clientes estratégicos — y Nvidia es el primero.
  • Este nivel de prioridad explica por qué Nvidia obtiene antes los nodos punteros, la capacidad de wafer y packaging, incluso frente a gigantes como Apple o AMD.

Relación estratégica entre Nvidia y TSMC: más allá del cliente-proveedor

– 38 años de evento, 30 años de relación

  • En su discurso, Huang rememoró que “hace 38 años, TSMC era una startup; hace 30 años, Nvidia también lo era… y sin ustedes (TSMC) no habría Nvidia”.
  • También rindió homenaje a Morris Chang, fundador de TSMC, al decir que “él fue quien me invitó a visitar TSMC en Taiwán hace tres décadas…”.
  • Este tipo de narrativa no es habitual en el mundo corporativo: mezcla emoción, personalización y técnica. Eso conecta con el público geek que sigue “cómo se fabrican los chips”.

– Implicaciones de negocio

  • Esta relación privilegiada permite a Nvidia acceder antes al metal, litografía, obleas y packaging que otros fabricantes que no tienen esa cercanía.
  • Por otro lado, TSMC obtiene certeza de demanda, permite amortizar inversiones gigantes en fábricas de 3 nm/2 nm, packaging CoWoS/SoIC, etc.
  • Es una win-win profundo que pocos actores en la industria tienen. De ahí esa frase de Huang “Sin TSMC, no habría Nvidia”.

Tecnología de fabricación, escalado y cuellos de botella

Litografía y yield

  • TSMC ha sido pionera en la adopción de litografía ultravioleta extrema (EUV) en volumen, lo que ha posibilitado nodos avanzados como 5 nm, 4 nm, 3 nm.
  • Para chips tan complejos como Blackwell, los retos de yield (rendimiento de obleas útiles) aumentan: cuanto mayor el área del die, mayor la probabilidad de defectos.
  • Un dato clave: hubo un diseño de Blackwell que presentaba un “flaw” (fallo de diseño) que redujo el yield, y Huang reconoció que fue culpa de Nvidia y que TSMC ayudó a restablecerlo.

– Empaquetado avanzado (3D, multi-die)

  • Blackwell no es solo una gran pieza de silicio: incluye múltiples dies interconectados (chiplets) y un enlace chip-to-chip de hasta 10 TB/s según fuentes.
  • TSMC ofrece tecnologías como CoWoS y SoIC (stacking de dies) que permiten reducir latencias, aumentar ancho de banda y mejorar eficiencia energética. Estas son plataformas críticas para cargas de IA/ML.
  • Debido a esto, aunque el transistor-count y el diseño sean clave, el packaging es cada vez más el “factor diferenciador” — y ahí TSMC tiene ventaja de primer nivel.

– Escalado de producción para IA

  • Con la explosión de la demanda de IA generativa, Nvidia está acaparando obleas y packaging: que TSMC aumente producción a 160 000 wafers/mes para el nodo 3 nm apunta a que esta alianza está en modo “máquina de guerra”.
  • Esto genera un efecto dominó: los competidores que no tengan esa prioridad pueden enfrentar cuellos de botella severos en obleas, packaging, memoria avanzada.

Impacto en el mercado, competencia y futuro inmediato

– Dominio del mercado de obleas IA

  • Un informe cita que en 2025 Nvidia consumirá hasta el 77 % de todas las obleas destin­adas a procesadores IA. Si esto se cumple, estamos ante un dominio sin precedentes.
  • TSMC ya declara estar completamente “booked” en packaging avanzado hasta 2025. Quienes no tengan trato preferente podrían quedar fuera del “primer tren” de la IA.
NVIDIA Chip Roadmap

– Rivalidades y qué está por venir

  • La alianza Nvidia-TSMC pone presión directa sobre empresas como AMD, Intel, Apple: la “guerra de nodos” ya no es solo quién tiene el mejor silicio, sino quién tiene la mejor cadena completa (diseño + fundición + packaging + memoria).
  • La microarquitectura Rubin (sucesora de Blackwell) apunta al 3 nm, lo que significa que esta carrera no ha hecho más que empezar.

Conclusión: Por qué este discurso importa más de lo que parece

El discurso de Jensen Huang en el evento de TSMC no fue un simple agradecimiento formal. Fue un acto simbólico con múltiples lecturas:

  • Un reconocimiento público al papel esencial de TSMC en el éxito de Nvidia.
  • Un guiño directo al ecosistema de fabricación global de semiconductores: no solo se trata de diseño, sino de producción a escala.
  • Una señal de que Nvidia quiere hacerlo público: “no somos solo un cliente más”, sino el cliente privilegiado que define la hoja de ruta de la industria.

Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡Se filtra GPT-5.1! OpenAI lanzaría su próximo modelo el 24 de noviembre en 3 versiones: GPT-5.1, Reasoning y Pro

0

El mundo de la inteligencia artificial está en vilo tras una filtración accidental que podría desvelar el próximo gran paso de OpenAI. OpenRouter ha publicado información en su repositorio de código CDN oficial que sugiere el plan de lanzamiento de GPT-5.1, con fecha prevista para el 24 de noviembre. Y lo que es aún más emocionante: ¡llegaría en tres versiones diferentes!

Como se muestra en la imagen filtrada, esta serie de modelos incluiría:

  • GPT-5.1: Descrito como «El modelo insignia de última generación de ChatGPT».
  • GPT-5.1 Reasoning: Con la promesa de «Piensa más, responde mejor».
  • GPT-5.1 Pro: Ofreciendo «Inteligencia de nivel de investigación».

IT Home seguirá informando sobre esta noticia que, de confirmarse, marcaría un hito crucial para OpenAI.

GPT 5.1

¿»Polaris Alpha» es el primer vistazo a GPT-5.1?

A principios de esta semana, un misterioso modelo llamado «Polaris Alpha» apareció en la plataforma OpenRouter. Con una impresionante longitud de contexto de 256.000 tokens, es de uso gratuito y ha demostrado un rendimiento excepcional en la generación de código, la invocación de herramientas y la comprensión de instrucciones.

Los desarrolladores afirmaron que el modelo está diseñado para recopilar comentarios de los usuarios con el fin de realizar mejoras futuras. Sin embargo, los debates en la comunidad sugieren fuertemente que Polaris Alpha podría ser una versión preliminar de GPT-5.1 (la versión «no pensante») de OpenAI.

GPT 5.1 filtrado

Algunos evaluadores observaron que «Polaris Alpha» prácticamente no producía alucinaciones y que su tono era notablemente similar al de la serie GPT-5. Cuando se le preguntó si pertenecía a la familia GPT-4, el modelo respondió: «Sí, estoy basado en la familia de modelos GPT-4», lo que alimentó aún más la especulación sobre su conexión con los modelos de próxima generación de OpenAI. Esta respuesta podría ser un indicio de una estrategia de camuflaje o una conexión evolutiva directa.

Esta filtración de GPT-5.1, con sus tres versiones distintas, sugiere un enfoque más segmentado y especializado por parte de OpenAI. La promesa de una «inteligencia de nivel de investigación» y la capacidad de «pensar más» en la versión Reasoning, junto con la reducción drástica de las alucinaciones, podrían revolucionar la forma en que interactuamos y dependemos de la IA.

Si «Polaris Alpha» es un adelanto, la llegada de GPT-5.1 el 24 de noviembre podría ser un evento transformador que eleve el estándar de la IA conversacional a nuevas e impresionantes alturas. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡Optimus en 2026! Tesla anuncia producción masiva de su robot humanoide de tercera generación a menos de $20.000 la unidad

0

¡Atención, Gurú Tecno Army! Tesla ha hecho un anuncio oficial que marca un paso gigantesco en el desarrollo de su ambicioso proyecto de robótica humanoide. La compañía confirmó hoy que la línea de producción piloto de su robot humanoide (Optimus) ya ha comenzado a operar en su fábrica de Fremont, y que una línea de producción de robots humanoides de tercera generación a mayor escala se completará y entrará en funcionamiento en 2026.

Pero la noticia más impactante es la promesa de accesibilidad: una vez que los robots estén en producción en masa, se espera que el costo por unidad se mantenga dentro de los 20.000 USD.

tesla optimus 2 diseno mano

En su conferencia telefónica sobre resultados del tercer trimestre en octubre, Elon Musk había confirmado que la finalización del diseño del robot humanoide de tercera generación, Optimus, se retrasaría hasta el primer trimestre del próximo año. Una fuente de la cadena de suministro de Tesla había revelado que la compañía tenía previsto inicialmente finalizar las especificaciones técnicas del robot y comenzar la producción en masa a principios de este año, con expectativas de pedidos multimillonarios.

Optimus en acción: Kung Fu y palomitas

Este robot humanoide ya ha demostrado habilidades sorprendentes, incluyendo kung fu, la recolección de huevos y la capacidad de servir palomitas de maíz muy lentamente. Estas demostraciones, aunque puedan parecer lúdicas, subrayan la complejidad de sus capacidades de manipulación y movimiento.

La visión de Musk: un millón de Optimus y el producto más importante

Elon Musk no ha escatimado en ambición para Optimus. Ha revelado planes para aumentar la producción anual del robot a un millón de unidades. Para Musk, Optimus podría ser el producto más importante de la historia de Tesla. «Creo que tiene un potencial enorme«, afirmó.

Este anuncio de Tesla sobre Optimus es una declaración de intenciones monumental. La meta de una producción masiva en 2026 a un coste de menos de 20.000 dólares por unidad podría ser un punto de inflexión no solo para Tesla, sino para toda la industria de la robótica y, potencialmente, para la economía global.

Si Tesla logra escalar la producción y mantener este precio, Optimus podría democratizar la robótica humanoide, llevándola a fábricas, hogares y servicios a una escala sin precedentes. El retraso en el diseño inicial es un pequeño bache en lo que Musk y Tesla ven como un camino hacia el «producto más importante» que jamás hayan creado. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Tesla planea fabricar sus propios chips de IA: Musk no confía ni en TSMC ni en Samsung

0

Elon Musk lo ha vuelto a hacer. Durante la junta anual de accionistas, el CEO de Tesla anunció un movimiento que sacude toda la industria tecnológica: la compañía planea construir su propia fábrica de chips a gran escala, a la que él mismo ha bautizado como “Terra Fab”.

¿Por qué? Porque ni TSMC ni Samsung dan la talla

Según Musk, incluso en el mejor de los escenarios, la capacidad de producción de los actuales gigantes de los semiconductores no será suficiente para cubrir las necesidades futuras de Tesla, especialmente en campos como la inteligencia artificial y la robótica.

Así que, fiel a su estilo, decidió pasar del problema y hacerlo a lo grande: “Es como una Gigafactoría, pero aún más bestia”, dijo Musk.

La “Terra Fab”: la superfundición de chips que Tesla necesita

El plan inicial es arrancar con una capacidad de 100.000 obleas mensuales, con miras a expandirse hasta un millón de obleas por mes.

Para ponerlo en perspectiva, TSMC —el rey actual del sector— produce alrededor de 1,42 millones de obleas mensuales. Sí, Tesla quiere ponerse al nivel de los titanes del silicio… y rápido.

Chips AI5 y AI6: los cerebros del futuro Tesla

La nueva fundición será clave para fabricar los próximos chips AI5 y AI6, diseñados internamente por Tesla. Musk asegura que el AI5 “arrasará con la competencia” en eficiencia energética, mientras que el AI6 llevará el rendimiento a un nuevo nivel.

Musk Revela Chips AI5

Estos chips impulsarán el cerebro detrás del Autopilot, el software de inteligencia artificial de Tesla y el ambicioso robot humanoide Optimus. El propio Musk afirma que la combinación de IA y robótica podría multiplicar la economía mundial entre 10 y 100 veces. Modesto, como siempre.

Elon quiere el control total

Más allá del hype, la jugada es clara: Tesla quiere controlar toda su cadena tecnológica, desde los coches eléctricos hasta los chips que les darán inteligencia. Musk incluso reconoció haber considerado colaborar con Intel, pero parece que la idea de depender de otros no le entusiasma demasiado.

En definitiva, Tesla no solo quiere dominar las carreteras eléctricas, también quiere conquistar el mundo del silicio. Y si Musk cumple su promesa, la “Terra Fab” podría convertirse en la próxima revolución industrial made in Tesla. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Microsoft lanza MAI-Image-1, su IA para crear imágenes realistas gratis en Bing

0

Microsoft no quiere quedarse atrás en la carrera de la inteligencia artificial visual. La compañía acaba de presentar MAI-Image-1, su primer modelo propio para generar imágenes fotorrealistas, y lo mejor: ya está disponible gratis en Bing y en el móvil.

Sí, gratis. Sin créditos, sin límites iniciales y sin pasar por caja.

MAI-Image-1: el nuevo cerebro creativo de Microsoft

El anuncio lo hizo Mustafa Suleyman, director de Microsoft AI y cofundador de DeepMind, quien confirmó en X (antes Twitter) que el modelo ya está operativo para todos los usuarios del creador de imágenes de Bing. Según Suleyman, MAI-Image-1 brilla en detalles fotorrealistas, iluminación artística y escenas naturales o de comida.

Solo necesitas describir la imagen que quieres —o subir una propia— y la IA se encargará del resto: mejorarla, reinventarla o darle ese toque cinematográfico que parece salido de Midjourney.

Tecnología made in Microsoft

A diferencia de otros modelos, MAI-Image-1 fue creado 100% dentro de Microsoft, sin depender de terceros. La empresa asegura haber utilizado datos seleccionados y supervisión de profesionales del mundo creativo para entrenar y afinar el modelo.

El resultado: una IA capaz de manejar detalles visuales complejos, texturas precisas y juegos de luz realistas, ideal para diseñadores, creadores de contenido y curiosos que quieren experimentar con arte digital.

Cómo funciona y qué ofrece

MAI-Image-1 permite generar imágenes con proporciones 1:1, 3:2 y 2:3 (los mismos formatos compatibles con GPT-4o) y una resolución máxima de 1248 x 832 píxeles. Puedes usarlo tanto en la web como desde tu móvil, a través del Creador de Imágenes de Bing, dentro del selector de modelos.

Eso sí, no edita imágenes ya generadas, sino que crea nuevas versiones si modificas el prompt o subes una foto.

Microsoft incluso ha ido más allá: MAI-Image-1 también se integra en las “expresiones de audio” de Copilot, una función experimental que genera imágenes a partir del contenido de un archivo de audio.
Imagina contar una historia y que la IA te muestre una imagen inspirada en el tono y emoción del relato. Futuro puro.

¿El lado negativo? Europa, otra vez, se queda fuera

Por ahora, MAI-Image-1 no está disponible en la Unión Europea, ya que Microsoft está ajustando los requisitos regulatorios para su lanzamiento. Si estás en España, tendrás que esperar un poco más para probarlo. Pero tranquilos, cuando llegue, promete competir de tú a tú con Midjourney o DALL·E 3.

En resumen

  • Gratis para todos los usuarios con cuenta de Microsoft
  • Creado internamente, sin depender de terceros
  • Enfocado en realismo, iluminación y detalles complejos
  • Disponible en Bing (web y móvil)
  • No disponible aún en la UE

En Gurú Tecno lo decimos claro

Microsoft ha dejado claro que su papel en la revolución de la inteligencia artificial no será el de simple espectador. Con MAI-Image-1, la compañía de Redmond redefine su identidad tecnológica, pasando de ser el eterno segundo en los buscadores a convertirse en un jugador clave del nuevo ecosistema creativo digital.

Mientras OpenAI y Midjourney se reparten la gloria y la atención mediática, Microsoft ha movido ficha con una estrategia quirúrgica: control total de su modelo, integración nativa en sus productos y acceso gratuito para el usuario. Esa combinación es dinamita. Nadie más, ni siquiera Google, está apostando tan fuerte por la democratización del arte generado por IA.

Lo interesante aquí no es solo la calidad del modelo —que sí, sorprende por su detalle y naturalidad—, sino la visión a largo plazo: Microsoft quiere que la IA deje de ser una herramienta para convertirse en una extensión del pensamiento humano, accesible desde cualquier dispositivo, sin barreras ni pagos absurdos.

MAI-Image-1 es el primer ladrillo de una infraestructura creativa mucho más grande. Un ecosistema donde Bing, Copilot y la nube de Azure trabajarán juntos para ofrecer experiencias visuales, auditivas y textuales unificadas. La IA ya no será una app externa: será el motor invisible detrás de todo lo que veas, escribas o imagines en el universo Microsoft.

Y aunque por ahora los usuarios europeos tendrán que esperar —gracias, burocracia—, el mensaje global es claro: Microsoft no quiere solo competir en la carrera de la IA, quiere dirigir el tráfico.

Si ejecutan bien esta estrategia, Bing podría transformarse en el nuevo laboratorio visual del mundo, un espacio donde la creatividad humana y la inteligencia artificial se mezclen hasta volverse indistinguibles. Porque, admitámoslo, el futuro no pertenece al que tenga el mejor modelo… sino al que consiga que millones de personas lo usen cada día sin darse cuenta de que ya viven dentro de él.

Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¿El chip AI8 de Tesla irá al espacio? Musk confirma que se usará en centros de datos orbitales de SpaceX

0

Elon Musk lo ha vuelto a hacer. Una sola reacción —un simple emoji — ha bastado para desatar el caos en la red: el nuevo chip AI8 de Tesla podría terminar trabajando… en el espacio. Sí, fuera de la Tierra.

Un chip “de otro mundo”

En la red social X (antes Twitter), Musk respondió con un emoji de diana a un usuario que especulaba con que el AI8, el futuro chip de Tesla, podría formar parte del centro de datos orbital que SpaceX planea construir con satélites Starlink V3. Y sí, esa pequeña reacción fue suficiente para confirmar lo que muchos sospechaban: el AI8 podría operar en el espacio.

“AI8 will be out of this world.” — Elon Musk, en X.

chip AI8 de Tesla ira al espacio

Tesla fabrica los cerebros, SpaceX los lanza al cosmos

Tesla ya trabaja en una línea de chips que va mucho más allá de la conducción autónoma.
Según Musk, los AI5, AI6, AI7 y AI8 están en distintas fases de desarrollo, y el salto entre generaciones será cada vez más rápido. Pero si el AI4 ya cubre todas las necesidades de conducción autónoma, ¿para qué seguir? La respuesta está más allá del parabrisas… y más allá del planeta.

El AI8 podría ser el primer chip de Tesla diseñado para operar en el entorno espacial, alimentando la infraestructura de centros de datos orbitales que SpaceX planea desplegar usando su red Starlink V3.

Centros de datos fuera de la Tierra

SpaceX lleva tiempo coqueteando con la idea de llevar la computación a la órbita baja, donde los problemas de energía, refrigeración y latencia se abordan de forma distinta a los de la Tierra.
Con satélites interconectados por enlaces láser de alta velocidad, la compañía podría crear clústeres de IA en el espacio, reduciendo el consumo energético terrestre y los costes de refrigeración.

Musk ya lo adelantó en una publicación anterior: “Simplemente estamos ampliando la capacidad de los satélites Starlink V3.”

¿Qué implica esto para Tesla?

Si Tesla fabrica chips para los centros de datos de SpaceX, estaríamos ante una fusión tecnológica histórica entre ambas compañías. Tesla dejaría de ser “solo” un fabricante de vehículos eléctricos para convertirse en un proveedor de hardware para la infraestructura espacial del futuro.

Los expertos lo resumen así: “Si el AI8 de Tesla opera en el espacio, Musk habrá conectado la conducción autónoma con la computación orbital. Ciencia ficción hecha realidad.” Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Altman: “Me avergonzaría si OpenAI no fuera la primera empresa con una IA como CEO”

0

El gurú de la inteligencia artificial, Sam Altman, vuelve a dejar titulares de los que hacen temblar Silicon Valley. En una reciente entrevista con Business Insider, el CEO de OpenAI —la compañía detrás de ChatGPT— afirmó que “se avergonzaría si OpenAI no fuera la primera gran empresa del mundo en tener una IA como CEO”.

Sí, lo ha dicho. El propio jefe de la revolución IA está deseando que una máquina lo despida.

Altman confesó que se pregunta con frecuencia “qué condiciones serían necesarias para que una IA gestionara OpenAI mejor que él mismo”. Y aunque reconoce que aún falta tiempo para ese escenario, asegura estar “trabajando para acelerarlo”.

Según sus palabras, en pocos años una IA podría estar dirigiendo uno de los departamentos clave de la empresa. Y lo dijo con una sonrisa, dejando claro que el futuro ya no es ciencia ficción: está en construcción, y él tiene los planos.

“Si OpenAI no es la primera gran empresa en tener una IA como CEO, debería avergonzarme”,
Sam Altman, CEO de OpenAI.

Entre bromas, Altman añadió que ya tiene una salida alternativa: una granja donde pasa temporadas conduciendo tractores y cosechando. Sí, el hombre que está moldeando el futuro digital confiesa que en su tiempo libre prefiere el ruido de un motor agrícola al zumbido de los servidores.

OpenAI inversion

Y no es el único capricho rural. Altman posee varias mansiones en San Francisco y Napa, además de una finca valorada en 43 millones de dólares en la Isla Grande de Hawái. Un refugio de lujo para el hombre que está construyendo la IA más poderosa del planeta.

En cuanto al impacto de esta tecnología en el empleo, Altman no se anda con rodeos:

“A corto plazo, la IA eliminará sin duda un gran número de puestos de trabajo;
pero a largo plazo, los humanos acabarán encontrando nuevas cosas que hacer.”

Traducción libre: prepárate para el caos, pero confía en que luego todo se arreglará.

Nuestra lectura en Gurú Tecno:

Altman no habla por hablar. Si algo ha demostrado es que sus predicciones suelen materializarse. Si realmente está pensando en una IA como CEO, es probable que ya estén entrenando una dentro de OpenAI.

El mensaje es claro: el futuro no será dirigido por humanos, sino por algoritmos que no duermen, no se estresan y no cobran bonus. La pregunta es… ¿quién controlará al jefe digital cuando empiece a tomar decisiones por sí mismo?

¿Aceptarías trabajar para una IA CEO? Déjanos tu opinión en los comentarios y síguenos en en InstagramFacebook y YouTube para más contenido sobre inteligencia artificial, tecnología y el futuro que se nos viene encima.

Google Maps se vuelve más inteligente: guía de carril en tiempo real con IA, debutando en el Polestar 4

0

Google se ha sacado de la manga una función de navegación digna de ciencia ficción: una guía de carril en tiempo real impulsada por inteligencia artificial, estrenándose nada menos que en el Polestar 4, el SUV eléctrico premium que ya presume de integrar el ecosistema Google Automotive.

Una IA que ve la carretera

La nueva función, llamada «Indicador de carril en tiempo real», utiliza las cámaras del vehículo para analizar las marcas viales directamente sobre el asfalto. Gracias a la potencia de procesamiento del propio coche y a la inteligencia artificial de Google, Maps sabrá en todo momento en qué carril estás y cuándo deberías cambiarte antes de llegar a una salida o un desvío.

Polestar 4 interior Google

En otras palabras: Google Maps ya no solo te dice por dónde ir, sino cómo colocarte en la carretera como un conductor profesional.

Una integración total con Polestar

Esta magia es posible porque el Polestar 4 utiliza una plataforma de software nativa de Google, integrada en su sistema de infoentretenimiento. Eso permite un nivel de comunicación entre vehículo y servicios en la nube que otros fabricantes solo pueden soñar.

La guía de carril no es una simple indicación visual en el mapa: es una asistencia contextual en tiempo real, basada en lo que las cámaras del coche están “viendo” en ese momento. Por ahora, la función solo se estrenará en autopistas de EE. UU. y Suecia, pero Google promete que llegará a más regiones, carreteras y modelos próximamente.

Polestar 4 interior

Pero no cantes victoria: el conductor sigue al mando

Ojo, no estamos hablando de conducción autónoma. Google ha dejado claro que el conductor sigue siendo responsable del volante: la IA solo avisa y sugiere el cambio de carril, no lo ejecuta automáticamente. Es, por tanto, un paso más hacia el futuro del coche conectado, pero con los pies en el asfalto.

Google quiere conquistar los salpicaderos

Este movimiento es una clara señal de que Google quiere ir más allá del smartphone: la compañía está expandiendo su ecosistema de inteligencia artificial a los vehículos, transformando el infoentretenimiento en un centro de datos rodante.

Y con Polestar (la marca premium de Volvo) como socio de lujo, la jugada pinta redonda. La batalla del software automotriz ha comenzado, y Google no piensa quedarse atrás. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Lenovo lanza las Visual AI Glasses V1, las gafas con IA más ligeras del mundo (38g). ¿Pantallas micro-LED, traducción en tiempo real y asistencia de IA a 484€ para la productividad?

0

Lenovo ha dado un golpe de autoridad en el mercado de los wearables con el lanzamiento de sus Visual AI Glasses V1. Estas gafas inteligentes no son solo una pantalla secundaria portátil, sino un dispositivo de realidad aumentada que se integra con asistentes de IA, muestra notificaciones del móvil y ofrece traducción en tiempo real. Y lo más impactante: con solo 38 gramos de peso, son las gafas inteligentes más ligeras del mundo.

A diferencia de competidores como las Meta Ray-Ban Display, el fabricante chino se ha enfocado en un área crucial para los usuarios de anteojos: la comodidad.

Diseño Ray-Ban, Ultra Ligeras y Pantallas Micro-LED Innovadoras

A juzgar por las imágenes en la tienda de Lenovo, las Visual AI Glasses V1 ofrecen un diseño inspirado en los modelos de Ray-Ban. El marco, de apenas 1,8 mm de espesor, es increíblemente ligero, lo que permite a los usuarios llevarlas puestas durante horas sin sentir fatiga, algo que no siempre ocurre con modelos más pesados.

lenovo v1 a1 glass

En términos de prestaciones, estas gafas cuentan con pantallas micro-LED que despliegan información directamente en el lente. Lenovo presume de que sus gafas son las primeras del mundo en utilizar guías de ondas de difracción de resina. Esta tecnología permite proyectar imágenes sobre la mica a través de un sistema que transporta la luz desde un microproyector ubicado en el marco.

Las pantallas tienen un brillo máximo de 2.000 nits y un área de visualización de seguimiento ocular de 15 x 11 mm. A diferencia de las Meta Ray-Ban Display, la información y notificaciones son monocromáticas. Lenovo ha optado por un tono similar al de «The Matrix» para mostrar mensajes, mapas o traducciones en tiempo real.

lenovo v1 a1 glass 3

Asistencia de IA y productividad: su gran apuesta

La interacción es similar a lo que vemos en las gafas de Meta. Los usuarios pueden acceder a los controles táctiles y altavoces ubicados en las patillas, los cuales ofrecen desplazamiento lateral y la capacidad de invocar al asistente de IA. En este aspecto, Lenovo ofrece un modo de conversación, teleprompter o navegación asistida, así como la posibilidad de activar subtítulos.

lenovo v1 a1 glass 2

La desventaja: sin cámara, enfocadas en la productividad

El único apartado donde las Visual AI Glasses V1 quedan a deber es en el aspecto multimedia, ya que no tienen cámara. Las gafas de Lenovo están pensadas claramente como un dispositivo para impulsar la productividad, no para capturar fotos o video. Mientras que las Meta Ray-Ban Display se venden como un gadget de estilo de vida, las Visual AI Glasses V1 serían ideales para alguien que necesita información contextual en tiempo real.

lenovo v1 a1 glass 0

El resto de especificaciones incluye una batería de 167 mAh que ofrece una autonomía de entre 8 y 10 horas con un tiempo de carga de 40 minutos. Su precio aproximado es de 3.999 yuanes (unos 484 euros) y estarán disponibles en China a partir del 9 de noviembre de 2025. Por el momento, no existen detalles sobre su lanzamiento en España, México u otros países de América Latina.

Conclusiones sobre las nuevas gafas con IA de Lenovo

El lanzamiento de las Lenovo Visual AI Glasses V1 es una declaración de intenciones. Al priorizar la comodidad, el peso y una asistencia de IA práctica sobre las funciones multimedia, Lenovo se posiciona como un fuerte competidor en el nicho de la productividad aumentada. Este enfoque diferente podría ser clave para atraer a un segmento de usuarios que busca herramientas discretas y eficientes, sin las distracciones de una cámara.

¡La carrera por las gafas inteligentes se pone más interesante que nunca! Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Adiós a la Ley de Moore: el chip de 41 capas que redefine el futuro de la computación

0

La Ley de Moore acaba de recibir un golpe de realidad… y lo ha dado Arabia Saudita. Un equipo de la Universidad de Ciencia y Tecnología Rey Abdullah (KAUST), liderado por el profesor Xiaohang Li, ha presentado el chip apilado verticalmente más alto del mundo, con 41 capas de materiales semiconductores y aislantes. No solo rompe récords: consume solo una milésima parte de la energía de los chips convencionales. Sí, has leído bien — una milésima.

Publicado en Nature Electronics, este avance podría marcar el inicio de la era post-Ley de Moore.

¿Por qué es tan revolucionario?

Durante más de medio siglo, la industria del silicio se ha movido bajo una regla de oro: “haz los transistores más pequeños”. Pero ya estamos chocando con los límites de la física: calor, fugas eléctricas y materiales que simplemente no pueden miniaturizarse más.

La solución de Li y su equipo es tan lógica como brillante: Si no puedes hacerlo más delgado, hazlo más alto.

El resultado: un chip con 41 capas —unas diez veces más que los actuales—, capaz de aumentar la densidad de circuitos hasta un 600% sin reducir el tamaño del chip.

chip de 41 capas

Cuando apilamos seis o más capas de transistores verticalmente, podemos integrar hasta un 600% más de funcionalidad lógica en la misma área, logrando mayor rendimiento y menor consumo”, explicó Li.

Rascacielos de transistores

El profesor Li compara el desafío con construir un rascacielos: “Cada transistor es como un piso. Si uno está desnivelado, el edificio entero se tambalea”.

La clave ha sido controlar la rugosidad de la interfaz entre capas, algo crítico para que los electrones fluyan sin obstáculos. Para lograrlo, el equipo desarrolló una técnica de fabricación criogénica, depositando todas las capas a temperatura ambiente, sin los 400 °C típicos de los procesos de silicio.

Esto abre la puerta a nuevos materiales flexibles y plásticos, permitiendo crear chips en superficies deformables —lo que antes era impensable.

Rendimiento y consumo

Los investigadores fabricaron 600 chips de muestra, todos con un rendimiento estable. El resultado: consumo de solo 0,47 microvatios, manteniendo las mismas funciones computacionales que los chips convencionales.

Eso equivale a una milésima parte del consumo energético de un chip tradicional. En otras palabras, si tu smartphone usara esta tecnología, su batería duraría semanas en lugar de días.

Aplicaciones: del wearable al edificio inteligente

El potencial de este diseño es brutal:

  • Sensores biométricos y dispositivos portátiles de salud ultradelgados.
  • Pantallas flexibles y etiquetas inteligentes de consumo casi nulo.
  • En el futuro: “piel electrónica”, superficies inteligentes que pueden detectar, procesar y comunicarse por sí mismas.

Imagina un edificio cuya fachada detecte la contaminación y se comunique con la red eléctrica. O una prenda que monitoree tu salud en tiempo real sin necesitar recarga.

Más allá de Moore

El mensaje del equipo de KAUST es claro: el futuro no pasa por chips más pequeños, sino por integraciones más inteligentes en 3D. La computación del futuro podría ser apilada, flexible y energéticamente ultraligera. Y lo mejor: ya no dependerá del silicio.

En resumen, el chip de 41 capas de KAUST no solo desafía la Ley de Moore, la entierra con estilo. Estamos presenciando el nacimiento de la arquitectura vertical en chips: la era de los rascacielos electrónicos ha comenzado. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡DJI lanza la Osmo Action 6 el 13 de noviembre! Sensor Sony de 1/1,1″ (casi 1 pulgada), vídeo 8K/30fps HDR, apertura variable F2.0-F4.0 y ¡4 horas de batería! ¿La cámara de acción definitiva?

0

¡Atención, Gurú Tecno Army! DJI ha anunciado que presentará un nuevo producto el 13 de noviembre. El vídeo promocional oficial mostraba una cámara con apertura variable, y basándonos en las filtraciones previas, es casi seguro que el esperado lanzamiento será la cámara de acción DJI Osmo Action 6. ¡Prepárense para una revolución en la captura de acción!

Sensor gigante de 1 Pulgada y rendimiento en baja luz

Según filtraciones, la Action 6 incorporará un sensor CMOS apilado de 1/1,1 pulgadas, desarrollado en colaboración con Sony, ¡casi una pulgada de tamaño! En comparación con el sensor de 1/1,3 pulgadas de la Action 5 Pro de la generación anterior, su área sensible a la luz se ha incrementado en casi un 40%. Esto se traduce en:

  • Mayor capacidad de grabación en condiciones de baja luminosidad.
  • Un rango dinámico superior a 13 pasos.
  • La estructura apilada elimina eficazmente el efecto de obturador rodante (rolling shutter), común en grabaciones a alta velocidad de fotogramas, garantizando imágenes estables y nítidas.
Osmo Action 6 2

Lente de apertura variable, 8K HDR y ProRes

En cuanto a las especificaciones de lente y vídeo, la Action 6 estará equipada con un nuevo objetivo de apertura variable F2.0-F4.0 con una longitud focal equivalente de 16 mm. Esta versatilidad permitirá a los usuarios controlar la profundidad de campo en diferentes condiciones de iluminación, logrando un cambio perfecto desde un bokeh creativo hasta imágenes nítidas.

Sus capacidades de vídeo han alcanzado nuevas cotas, admitiendo la grabación de vídeo 8K/30fps con HDR y codificación ProRes, así como múltiples formatos de alta velocidad de fotogramas como 5,3K/60fps y 4K/120fps, capturando fácilmente momentos emocionantes a alta velocidad.

Batería de 4 horas, resistencia extrema y estabilización RockSteady 4.0

La duración y resistencia de la batería son otro aspecto destacado. La Action 6 está equipada con una batería de gran capacidad de 1950 mAh, que proporciona hasta 4 horas de uso continuo con una carga completa, ideal para largas sesiones de grabación.

Osmo Action 6 trasera

La Action 6 tendrá una clasificación de resistencia al agua IP68, lo que la hace sumergible hasta 20 metros de profundidad. Para mejorar la estabilización de imagen, el nuevo modelo incorpora la tecnología de estabilización electrónica RockSteady 4.0, que incluye un nuevo motor de procesamiento de imagen. Además, contará con 64 GB de almacenamiento interno, expansión mediante tarjeta microSD, Wi-Fi 6 y Bluetooth 5.1.

Integración con smartwatches: el centro de control en tu muñeca

Una innovadora función será la integración con relojes inteligentes. Los usuarios podrán conectarla a un Apple Watch o un reloj Garmin para controlarla de forma remota, superponer rutas GPS, sincronizar la frecuencia cardíaca y visualizar datos en tiempo real como la velocidad y la altitud. ¡Tu smartwatch se convierte así en un potente centro de control de tareas!

La inminente DJI Osmo Action 6 parece ser una verdadera bestia en el segmento de las cámaras de acción. Con un sensor significativamente más grande, apertura variable, grabación en 8K HDR y ProRes, y una batería de larga duración, DJI está apuntando directamente a la cima. La integración con smartwatches añade un valor increíble para los creadores de contenido de aventura y deportes, haciendo de esta cámara una herramienta aún más versátil y potente.

¡El 13 de noviembre estaremos atentos para confirmar todos los detalles! DJI podría recuperar terreno frente a sus competidores y situar a la Osmo Action 6 como la cámara de acción más completa del mercado. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡Se acabó la espera! Nueva app de WhatsApp para Apple Watch ya disponible para todos: notas de voz, historial de chats e imágenes. ¿La mensajería completa llega a tu muñeca?

0

¡Atención, Gurú Tecno Army! La espera ha terminado para los usuarios del Apple Watch que anhelaban una experiencia de WhatsApp realmente completa. La nueva aplicación nativa de WhatsApp para Apple Watch ya se encuentra disponible para todos, marcando un hito importante en la expansión de la popular plataforma de mensajería de Meta.

El lanzamiento ha sido sorprendentemente rápido, apenas unos días después de que el cliente comenzara a probarse en fase beta. Esto demuestra el compromiso de Mark Zuckerberg y su equipo por llevar una funcionalidad robusta a los smartwatches de Apple.

Adiós al iPhone: WhatsApp completo en tu muñeca

Gracias a esta aplicación, WhatsApp ahora ofrece una experiencia verdaderamente completa desde el Apple Watch. Esto se debe a la introducción de una gran variedad de funciones que harán que te olvides del iPhone al momento de interactuar con la plataforma de mensajería.

Según ha publicado Meta en el blog oficial de WhatsApp, las novedades son numerosas y largamente reclamadas:

  • Lectura de mensajes completos: Los usuarios podrán leer mensajes íntegros directamente desde el smartwatch, incluso aquellos que sean extensos.
  • Reacciones con emojis: Podrás reaccionar a los mensajes usando emojis, algo esencial en la comunicación actual.
  • Visualización de imágenes y stickers: Verás con nitidez las imágenes y los stickers compartidos en una conversación.
  • Grabación y envío de notas de voz: Quizás la opción más llamativa y cómoda, ya que permite grabar y enviar notas de voz directamente desde el reloj.
  • Historial de chats: Una gran novedad que permite ver mensajes anteriores dentro de una conversación sin tener que recurrir al iPhone.
  • Avisos de llamadas entrantes: La aplicación también te avisará de las llamadas entrantes en tu Apple Watch.
Watch SE 3 apple

WhatsApp promete que este es apenas el punto de partida para ofrecer una experiencia mucho más completa en el Apple Watch. Aunque Meta no confirma qué otras opciones podrían llegar en el futuro, sí menciona que planea usar el feedback del público para mejorarla continuamente.

Es, sin dudas, para agradecer que los de Menlo Park finalmente se hayan encaminado en ofrecer un cliente completo para watchOS, en lugar de una integración a medias como la que se brindaba hasta ahora.

Expansión en el ecosistema Apple: del Watch al iPad

Con su llegada al Apple Watch, WhatsApp continúa su expansión decidida en el ecosistema de Apple. No olvidemos que a mediados de este año ya concretó el lanzamiento de su aplicación para iPad, que fue celebrada como un hito tras años de reclamos por parte del público.

La nueva app de WhatsApp para Apple Watch ya se encuentra disponible en la App Store. Desde Meta indican que, al igual que en las demás plataformas donde tiene presencia, el cliente protege los mensajes y las llamadas con el cifrado de extremo a extremo. Respecto de su compatibilidad, se puede instalar en cualquier Apple Watch Series 4 o más reciente que utilice watchOS 10 o superior.

Conclusiones sobre la nueva aplicación

Este lanzamiento es una excelente noticia para los millones de usuarios de Apple Watch. La integración nativa y completa de WhatsApp en la muñeca no solo mejora la comodidad y la accesibilidad, sino que también refuerza el papel del smartwatch como un verdadero centro de comunicación independiente del smartphone.

Meta está escuchando a su base de usuarios y consolidando su presencia en todos los dispositivos clave del ecosistema Apple. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

El Samsung Galaxy Z TriFold da señales de vida: aparece en la base de datos Bluetooth y apunta a un lanzamiento global

0

Samsung está a punto de romper otra barrera en el universo de los plegables. El esperado Galaxy Z TriFold, el primer smartphone plegable en tres partes del gigante surcoreano, acaba de aparecer en la base de datos de certificación Bluetooth SIG, lo que deja entrever que su lanzamiento está mucho más cerca de lo que muchos pensaban.

El primer plegable “triple” de Samsung ya es oficial ante Bluetooth SIG

La información revelada muestra cinco números de modelo asociados al Galaxy Z TriFold:

  • SM-D6390
  • SM-D639N
  • SM-D639U
  • SM-D639U1
  • SM-D639B

Según los expertos, estos códigos corresponden a diferentes mercados globales —Norteamérica, Corea del Sur, China y Europa— y el modelo SM-D639B sería la versión internacional, confirmando que el TriFold no será un experimento local, sino un producto con distribución global.

Galaxy Z TriFold datos Bluetooth

La certificación bajo el nombre interno Q7M deja claro que el dispositivo ha superado la fase de aprobación Bluetooth, un paso imprescindible antes de cualquier lanzamiento comercial.

TriFold filtrado

Tres pantallas, una locura plegable

El Galaxy Z TriFold sería el primer teléfono de consumo masivo con un diseño de triple pliegue, capaz de pasar de un modo smartphone compacto a una pantalla tipo tablet extendida con solo desplegarlo.

Samsung lleva años trabajando en esta tecnología, y si algo domina, es el arte de doblar el vidrio sin destrozarlo. Los rumores apuntan a un panel OLED flexible, posiblemente de 7,8 o 8,2 pulgadas, con bisagras optimizadas y soporte para S Pen.

Además, se espera la integración del procesador Snapdragon 8 Gen 4 for Galaxy, conectividad Bluetooth 5.4, y un sistema de cámaras mejorado para aprovechar las nuevas posiciones del dispositivo.

Huawei lo hizo primero, pero Samsung lo quiere hacer mejor

Sí, es cierto: el Huawei Mate XT fue el primer teléfono triple plegable del mercado. Pero en Samsung no parecen especialmente impresionados.

Huawei Mate XT

A pesar de compartir el concepto de dos bisagras, el enfoque surcoreano será muy distinto. Mientras Huawei optó por un diseño más vistoso pero expuesto, Samsung parece decidido a proteger su panel interno, evitando pliegues externos vulnerables y apostando por un sistema más robusto y limpio.

Un lanzamiento antes de lo previsto

Hasta hace poco, los filtradores apuntaban a que el TriFold no llegaría hasta 2026. Pero la aparición en la base de datos Bluetooth SIG cambia el panorama: este tipo de certificaciones suelen producirse entre dos y cuatro meses antes del lanzamiento oficial, lo que hace pensar que podríamos ver el Galaxy Z TriFold en el primer semestre de 2025, probablemente en el Galaxy Unpacked de verano junto al Z Fold8 y el Z Flip8.

Samsung parece decidido a adelantarse a competidores como Honor o TCL, que también han mostrado prototipos de smartphones con triple pliegue.

Gurú Tecno opina

Samsung no quiere solo doblar el mercado, quiere plegarlo por completo. El Galaxy Z TriFold podría ser el punto de inflexión entre el smartphone y la tablet, y el primer paso hacia una nueva era de dispositivos híbridos.

Si logra mantener un grosor razonable y un precio competitivo (por debajo de los 2.500 € sería un milagro), estaríamos ante uno de los lanzamientos más revolucionarios del 2025. La próxima frontera ya está aquí… y se pliega en tres. El debate está servido. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡Apple paga a Google! Siri integrará IA Gemini personalizada tras obstáculos en su desarrollo interno

0

¡Atención, Gurú Tecno Army! Mark Gurman de Bloomberg ha desvelado en su último boletín Power On una noticia que cambia la perspectiva sobre la capacidad de Apple en el campo de la Inteligencia Artificial. Tras encontrar obstáculos significativos en el desarrollo de su propio modelo grande para Siri, Apple ha ajustado su estrategia y, sorprendentemente, ha recurrido a pagar a Google para que personalice un modelo de lenguaje grande basado en Gemini.

El informe sugiere que esta colaboración busca abordar los desafíos que Apple ha enfrentado para desarrollar Siri, particularmente para garantizar su rendimiento estable y eficiente en diversas aplicaciones, especialmente en escenarios críticos como la banca.

Por lo tanto, Apple espera compensar sus deficiencias en el manejo de tareas complejas de IA mediante la introducción del modelo Gemini maduro de Google, acelerar el proceso de inteligencia artificial de Siri y, al mismo tiempo, seguir presentando el servicio como tecnología propia de Apple para su promoción externa.

Arquitectura híbrida: on-device y nube con Gemini

Con la nueva arquitectura técnica, el procesamiento de tareas de IA de Siri adoptará un modo híbrido. Para solicitudes de IA relativamente sencillas, el sistema las completará utilizando los recursos informáticos del propio dispositivo. Sin embargo, para consultas más complejas, se delegarán a un modelo Gemini personalizado, implementado en los servidores de computación en la nube privada de Apple, para su procesamiento mediante datos cifrados sin estado.

Este modelo de «colaboración integral en la nube» es clave: permite aprovechar las potentes capacidades de los modelos a gran escala al tiempo que maximiza la protección de la privacidad de los datos del usuario, ya que el servidor no almacenará ninguna información personal.

La nueva Siri: tres componentes clave

La versión actualizada de Siri contará con tres componentes principales para permitir una interacción con el usuario más inteligente:

  1. El «planificador de consultas»: Determinará inteligentemente la mejor ruta para satisfacer una solicitud, decidiendo si realizar una búsqueda web, acceder a datos personales o llamar a una función de una aplicación de terceros.
  2. El «sistema de búsqueda de conocimiento»: Dotará a Siri de una base de conocimientos generales para responder directamente a preguntas de sentido común.
  3. El «resumidor»: Aprovechará las grandes capacidades del modelo para resumir eficientemente notificaciones, correos electrónicos, páginas web e incluso contenido de audio.
SIRI AI

Apple planea implementar estas nuevas y potentes funciones de IA por fases. Se espera que los usuarios disfruten de funciones como el control por voz integrado en las aplicaciones y los servicios contextuales con la actualización iOS 26.4, prevista para la primavera de 2026. Los verdaderos avances «importantes» en tecnología de inteligencia artificial, que transformarán por completo la experiencia de Siri, llegarán en la WWDC de junio de 2026 con la actualización iOS 27.

Conclusiones finales

Esta revelación de Bloomberg es un golpe sobre la mesa en la narrativa de la «IA propia» de Apple. Demuestra la complejidad y el costo de desarrollar modelos de IA de vanguardia, incluso para un gigante como Apple. La alianza con Google para Gemini es un movimiento estratégico pragmático que permitirá a Apple competir en el espacio de la IA conversacional avanzada, mientras intenta mantener su imagen de privacidad y control.

La «nueva Siri» promete ser mucho más inteligente, pero el motor detrás de su cerebro, al menos en parte, tendrá el sello de Google. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Los humanos hacen el trabajo sucio: así entrena Tesla al robot Optimus

0

En Tesla, los robots todavía no dominan el mundo, pero los humanos sí dominan a los robots. Un nuevo informe de Business Insider revela cómo Elon Musk está entrenando a su robot humanoide Optimus de una forma tan intensa (y absurda) que parece sacada de Black Mirror.

Humanos enseñando a máquinas… literalmente

Dentro del laboratorio acristalado de Tesla, en California, decenas de empleados pasan horas repitiendo los mismos movimientos una y otra vez: levantar una copa, limpiar una mesa, correr una cortina. Todo grabado desde cinco cámaras montadas en cascos y mochilas de hasta 18 kilos, durante turnos de ocho horas.

No, no es un castigo. Es entrenamiento para Optimus, el robot humanoide con el que Musk quiere revolucionar la industria. Los empleados actúan como profesores humanos, enseñándole cómo moverse, agarrar objetos y mantener el equilibrio. Cada gesto se graba, se analiza y se traduce en datos para entrenar las redes neuronales del robot.

Un antiguo trabajador lo resumió con crudeza: “Me sentía como un conejillo de indias bajo un microscopio”.

Y es que la escena es casi distópica: humanos comportándose como máquinas… para que las máquinas aprendan a comportarse como humanos.

Así “aprende” Optimus: IA, cámaras y dolor de espalda

Hasta hace unos meses, los empleados usaban trajes de captura de movimiento y controlaban al robot de forma remota. Pero Tesla ha cambiado de táctica: ahora se basa únicamente en cámaras corporales y visión computacional.

El objetivo: enseñar a Optimus a aprender observando, igual que un niño. Para ello, los empleados realizan tareas rutinarias mientras la IA analiza ángulos, trayectorias y posturas. Los datos se etiquetan y se comparan para optimizar los modelos de movimiento.

tesla optimus gen 2webp

Y no, no es un trabajo glamuroso. Los empleados confiesan que pasan semanas enteras limpiando mesas o moviendo objetos. Uno de ellos lo comparó con “enseñar a un bebé”, solo que el bebé pesa 60 kilos, se cae la mitad del tiempo y puede romperte un ordenador de 30.000 dólares si pierde el equilibrio.

“Es como hacer cardio ocho horas diarias”, confesó otro.

Algunos han sufrido lesiones de espalda y cuello por cargar con el equipo o adoptar posturas forzadas. Pero el ritmo no afloja: cada trabajador debe grabar al menos cuatro horas de vídeo útil por turno, o su rendimiento baja en el sistema de puntuación interna.

IA con ritmo propio: bailar, gatear y hasta hacer twerking

Si creías que entrenar un robot era solo cuestión de mover brazos, estás equivocado. Tesla utiliza instrucciones generadas por IA que piden a los empleados hacer cosas tan aleatorias como:

  • Imitar a un gorila
  • Bailar como un pollo
  • Simular pasar la aspiradora
  • Hacer twerking
  • Gatear a cuatro patas

Cada movimiento debe completarse en 3 a 5 segundos, y se repite cientos de veces. La IA analiza cómo cambia el equilibrio, el peso corporal y la coordinación. Sí, el robot aprende a limpiar, pero también a bailar mejor que tú.

Musk lo tiene claro: Optimus será el futuro de Tesla

Durante la presentación de resultados del tercer trimestre, Elon Musk lo soltó sin pestañear: “Optimus podría ser el producto más importante de la historia de Tesla”.

Y no lo dice por decir. Musk proyecta que, a largo plazo, el robot podría representar hasta el 80% del valor total de la compañía. Planea fabricar un millón de unidades al año y venderlas como fuerza laboral automatizada: desde fábricas hasta tareas domésticas.

La idea es que Optimus aprenda primero con humanos para sustituirlos después. Sí, el plan es tan irónico como suena.

Detrás del show: control, presión y despidos

Más de 100 personas han participado en la recopilación de datos, pero no todas sobrevivieron al ritmo.
Tesla despidió a decenas de recolectores tras su última evaluación de desempeño. Cada empleado era juzgado por su postura, su precisión y la “naturalidad” de sus movimientos.

Incluso las demostraciones para inversores son puro teatro: los empleados controlan al robot en vivo para que parezca más fluido. Musk, por supuesto, observa desde primera fila, a veces acompañado de su hijo, X, viendo cómo Optimus intenta mantenerse en pie sin caerse (más del 50% de las veces, no lo logra).

En resumen: el futuro se está entrenando a mano

Tesla está construyendo su futuro robótico a base de sudor humano, IA y ambición desmedida.
El experimento es fascinante y perturbador a partes iguales: humanos programando su propio reemplazo, movimiento a movimiento.

En Tesla, el futuro no llega solo: hay que enseñarle a fregar primero. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Audio-Technica celebra 10 años del mítico ATH-M50x con una edición ENSO limitada a 5000 unidades

0

Diez años después de que el ATH-M50x conquistara estudios, escenarios y sets de DJ en todo el mundo, Audio-Technica vuelve a la carga con una edición conmemorativa que huele a culto: los ATH-M50x ENSO Limited Edition. Y ojo, porque solo habrá 5000 unidades disponibles en todo el planeta. Si eres fan del sonido puro y del diseño nipón, este es tu santo grial.

ENSO: el círculo perfecto del sonido

El término ENSO proviene del arte zen japonés del ensho —un círculo dibujado con un solo trazo—, símbolo de perfección, ciclo y continuidad. Audio-Technica adopta este concepto para cerrar un ciclo: el regreso al diseño negro clásico, sobrio y elegante de los M50x originales de 2014, pero con un toque artístico que los eleva a pieza de colección.

Audio Technica ATH M50x

El diseño fusiona arte visual y lenguaje sonoro, con un grabado personalizado entre la diadema y las copas, inspirado en las pinceladas de tinta del shogo (pintura paisajística japonesa) y en las ondas sonoras que definen la filosofía de la marca.

ADN técnico de pura raza japonesa

Más allá del diseño, el corazón sigue siendo puro Audio-Technica:

  • Transductores patentados de 45 mm, con imanes de neodimio y bobina móvil de alambre de aluminio recubierto de cobre (CCAW).
  • Impedancia: 38 ohmios.
  • Respuesta plana y precisa, diseñada para monitorización profesional, mezcla o escucha crítica.
  • Construcción robusta y plegable, con confort para sesiones maratonianas.

Vamos, que siguen siendo los auriculares de referencia que todos amamos, pero con una vuelta estética que los convierte en una joya.

Sorpresa japonesa: 1 de cada 25 trae un kit ENSO exclusivo

Y por si esto no fuera suficiente, 1 de cada 25 compradores se llevará un juego de accesorios ENSO:

  • Un estuche premium.
  • Un furoshiki (tela tradicional japonesa) teñido a mano, creado junto al histórico taller Bamba, con más de un siglo de tradición.
Audio Technica ATH M50X edicion limitada 1

Una oda a la cultura artesanal japonesa que combina tecnología, arte y tradición en un solo producto.

Precio y disponibilidad

Los Audio-Technica ATH-M50x ENSO ya están disponibles en Japón a un precio de 32.670 yenes (unos 200 € al cambio actual). No hay confirmación aún sobre disponibilidad global, pero sabiendo que son solo 5000 unidades, si los ves en stock, no lo pienses: serán historia de la monitorización profesional.

Conclusión de Gurú Tecno

Audio-Technica no lanza una simple reedición: lanza un manifiesto. Los ENSO son un tributo a diez años de precisión sónica y diseño atemporal. Si te consideras audiófilo o amante de lo japonés, más vale que te prepares para el “Add to cart” más rápido de tu vida. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡Google se tiñe de IA! Fotos y Maps estrenan iconos degradados, siguiendo la estela de la «G» principal y Gemini. ¿Un nuevo lenguaje visual para la innovación impulsada por IA?

0

¡Atención, Gurú Tecno Army! Google continúa su transformación visual para la era de la inteligencia artificial. Después de las actualizaciones de su emblemática letra “G” y el icono de Gemini, ahora son Google Fotos y Google Maps quienes adoptan nuevos iconos con un diseño degradado, similar al de su logotipo principal. Esta estrategia busca unificar la identidad visual de la compañía bajo el paraguas de la IA.

Según un artículo de 9to5Google, Google está empezando a implementar estos cambios.

Google Maps: la chincheta se estiliza y se colorea

El nuevo icono de Google Maps conserva la clásica forma de chincheta, pero con un diseño más moderno y estilizado. El círculo interior es más grande y se han eliminado las dos secciones diagonales azules originales, un cambio que, según documentos internos, refleja la función de Géminis en la lista de ubicaciones.

Google Maps nuevo logo

Google Fotos: degradados desde el interior

Por su parte, el icono de Google Fotos mantiene su forma original de molinillo, pero con un efecto degradado que se expande desde el interior hacia afuera. Este cambio visual no es casual: Google Fotos ya integra o integrará funciones de IA como Remix, la generación de vídeos a partir de fotos (Veo), edición conversacional y la función Ask Photos basada en Gemini. También se añadirá la función «Nano Banana».

Google Fotos nuevo logo

Los nuevos iconos aún no tienen una fecha de lanzamiento oficial, pero dada la profunda integración de las funciones de IA en los productos de Google, podrían aparecer en cualquier momento.

La filosofía detrás del degradado: innovación y creatividad con IA

La Búsqueda de Google actualizó su icono a un diseño de color degradado. En septiembre, Google reveló el concepto detrás de este nuevo lenguaje visual: «Si bien mantuvimos los cuatro colores icónicos de Google, utilizamos tonos más brillantes y un diseño degradado para simbolizar el florecimiento de la innovación y la creatividad impulsadas por la IA en nuestros productos y tecnologías».

La nueva «G» degradada no solo representa la búsqueda, sino que abarca toda la marca y empresa Google. La compañía ha afirmado que implementará esta actualización en más productos, plataformas y servicios en los próximos meses, consolidando así una identidad visual más vibrante y futurista.

Conclusiones finales

Este rediseño de los iconos de Google Fotos y Maps es un claro indicio de la dirección que está tomando la compañía. La adopción de degradados no es solo una cuestión estética; es una declaración de intenciones. Google está comunicando visualmente que la IA es el motor de su innovación, y que esta nueva era estará llena de creatividad, dinamismo y, por supuesto, mucho color.

¡Estamos presenciando una reinvención visual de una de las marcas tecnológicas más importantes del mundo! Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡Batacazo de Meta! Acciones caen 11%, fortuna de Zuckerberg se reduce $29.200 millones por la «fiebre de IA»

0

La semana no ha sido nada amable para Meta y su CEO, Mark Zuckerberg. Tras una caída de más del 11% en el precio de las acciones de Meta el jueves, el puesto de Zuckerberg en el Índice de Multimillonarios de Bloomberg se desplomó del tercero al quinto, y su patrimonio personal se redujo en la asombrosa cantidad de 29.200 millones de dólares en un solo día.

Según Bloomberg, el patrimonio neto del director ejecutivo de 41 años cayó a 235.200 millones de dólares, su peor posición en casi dos años. Este significativo descenso se debió a la preocupación de los inversores por los planes de Meta de emitir 30.000 millones de dólares en nueva deuda para financiar el gasto masivo en inteligencia artificial y el Metaverso. Esta pérdida de riqueza es también la cuarta mayor registrada en un solo día en el Índice de Riqueza de Bloomberg, impulsada por las fluctuaciones del mercado.

La fiebre de la IA y el gasto exorbitante

Esta última caída se produce después de que Meta elevara su previsión de gasto total para 2025 hasta un máximo de 118.000 millones de dólares, incluyendo hasta 72.000 millones de dólares en gastos de capital para expandir su infraestructura de inteligencia artificial, con nuevos incrementos previstos para 2026. Este enorme despliegue financiero ha llevado al menos a dos analistas a rebajar la calificación de la compañía, advirtiendo algunos que las ambiciones de Meta en IA podrían reducir sus márgenes de beneficio.

Batacazo de Meta bolsa

A principios de este año, el patrimonio neto de Zuckerberg se disparó hasta los 57.000 millones de dólares, y el precio de las acciones de Meta subió un 28%. Sin embargo, ahora ha sido superado por el fundador de Amazon, Jeff Bezos, y el cofundador de Google, Larry Page, quienes se beneficiaron de sólidos informes de ganancias que impulsaron al alza el precio de las acciones de sus respectivas compañías, especialmente en el ámbito de la computación en la nube y la IA.

Musk en la cima, Meta con un desafío de $30.000 millones en bonos

Actualmente, el director ejecutivo de Tesla, Elon Musk, se mantiene en la cima de la lista mundial de los más ricos, mientras que el cofundador de Oracle, Larry Ellison, ocupa el segundo lugar.

La propuesta de Meta de emitir bonos por valor de 30.000 millones de dólares sería la mayor oferta de bonos con grado de inversión en 2025, destinada a financiar su inversión en inteligencia artificial, centros de datos y proyectos del metaverso. Sin embargo, esta medida ha generado inquietud en el mercado: el gigante de las redes sociales podría enfrentarse al riesgo de una sobreexpansión, mientras que sus competidores ya han avanzado significativamente en la publicidad impulsada por IA.

Esta fuerte caída en su valor de mercado supone un giro radical para Zuckerberg, quien a principios de año estaba a punto de alcanzar a Bezos y Musk en la lista de los más ricos del mundo.

El lado privado del multimillonario

A pesar de cultivar una imagen pública discreta, Mark Zuckerberg también participa, en silencio, en algunos de los gastos más extravagantes de la élite de Silicon Valley. Ha gastado cientos de millones de dólares en bienes raíces, incluyendo una extensa propiedad en Kauai, Hawái, con sofisticados sistemas de seguridad y una red de túneles, y varias propiedades alrededor de su residencia principal en Palo Alto, California, todas diseñadas con especial atención a la privacidad.

Aunque antes era conocido por conducir coches asequibles como el Honda Fit, Zuckerberg ahora posee un Pagani Huayra, un superdeportivo italiano de más de un millón de dólares, y continúa ampliando su colección de coches clásicos con un Ford Bronco y un Porsche personalizado valorado en aproximadamente 250.000 dólares.

En los últimos años, Zuckerberg también ha incursionado notablemente en el mundo de los superyates. Adquirió el yate de lujo «Launchpad», de 118 metros de eslora, por aproximadamente 300 millones de dólares, junto con un barco auxiliar, el «Wingman», valorado en 30 millones de dólares. Según se informa, organizó una fastuosa fiesta en este yate para celebrar su 40 cumpleaños. Y, como un toque final de excentricidad, encargó una estatua de siete pies de altura de su esposa, Priscilla Chan.

Conclusiones de la debacle

En gurutecno.com, el batacazo bursátil de Meta y la consiguiente caída de la fortuna de Zuckerberg ponen de manifiesto la tensión entre la visión a largo plazo de la compañía en IA y Metaverso, y la impaciencia de los inversores.

Mientras Meta apuesta fuertemente por el futuro, con un gasto de capital colosal, Wall Street parece exigir rentabilidad a corto plazo. La historia nos dirá si esta inversión masiva en IA es una sobreexpansión arriesgada o una apuesta estratégica que, a la larga, catapultará a Meta a la siguiente era digital. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

¡Nvidia en la estratosfera! Valor de mercado se dispara a $5 Billones y Jensen Huang sella acuerdos clave con Samsung y Hyundai

0

¡Atención, Gurú Tecno Army! Según un informe de Bloomberg del 2 de noviembre, la semana ha sido extraordinaria incluso para los estándares del incombustible CEO de Nvidia, Jensen Huang. Entre conferencias de desarrolladores en Washington y cenas de pollo frito y cerveza en Corea del Sur, Huang ha protagonizado un despliegue frenético de actividad que ha catapultado a su compañía a cotas nunca vistas.

En solo cinco días hábiles, la capitalización bursátil de Nvidia se ha disparado en casi 400 mil millones de dólares (unos 2,8 billones de yuanes), superando la de Toyota Motor y Home Depot. Pero el hito más impresionante es que Nvidia se ha convertido en la primera empresa de la historia en alcanzar los 5 billones de dólares de valor de mercado. ¡Un nuevo récord que redefine la escala del éxito en la era de la IA! Como reflejo, la fortuna personal de Jensen Huang también se incrementó en más de 9 mil millones de dólares, llegando a casi los 176 mil millones.

Huang: acelerar la adopción global de la IA y calmar a Wall Street

Jensen Huang, de 62 años, está trabajando incansablemente para acelerar la adopción global de la IA, integrando la tecnología de Nvidia en todos los sectores de la economía. Al mismo tiempo, su misión es demostrar a los escépticos de Wall Street –que advierten sobre una posible burbuja de la IA– que los billones de dólares invertidos en infraestructura pronto darán sus frutos, siendo los valiosos chips de Nvidia el corazón de esta transformación.

Nvidia está cumpliendo sus promesas con resultados tangibles”, afirmó JoAnne Feeney de Advisors Capital Management. “Están intentando demostrar, mediante ejemplos concretos, las aplicaciones reales de la IA y cómo estas se traducen en un valor empresarial real”.

Nvidia en la estratosfera

Los recientes anuncios de inversiones y alianzas de Nvidia buscan precisamente eso: conectar sus chips y software de IA con una gama más amplia de industrias, desde las telecomunicaciones y el transporte hasta la atención médica. Esta estrategia ayudará a Nvidia a reducir su dependencia de gigantes tecnológicos como Microsoft y Meta, cuyos centros de datos aportan aproximadamente la mitad de sus ingresos y cuyo enorme gasto ha generado preocupación sobre una posible burbuja en el sector de la IA.

Corea del Sur: un banquete de pollo frito y acuerdos millonarios

Tras su paso por Washington, Jensen Huang aterrizó en Corea del Sur con una agenda llena. El viernes, anunció que Nvidia suministraría más de 260.000 chips de IA a Samsung, Hyundai, SK Group y el gobierno surcoreano. Estos acuerdos, celebrados con los líderes de Samsung (Jay-Y Lee) y Hyundai (Chung Euisun) en un restaurante de pollo frito en Seúl, impulsan aún más el rápido crecimiento del negocio de IA y centros de datos de Nvidia en el extranjero. Un crecimiento que ya había visto importantes alianzas en el Reino Unido, Arabia Saudí y los Emiratos Árabes Unidos.

NVIDIA chip IA

Estrategia «Estados Unidos primero» y chips Blackwell

Las acciones de Nvidia esta semana también se orquestaron para reflejar la política de «Estados Unidos Primero» del presidente Trump, promoviendo una mayor inversión nacional en fábricas de vanguardia y la exportación de tecnología estadounidense a aliados. Jensen Huang elogió los planes económicos de Trump, destacando el compromiso de Nvidia de fabricar chips en Estados Unidos utilizando su innovadora arquitectura Blackwell, que se producirá en fábricas operadas por su socio de larga data, TSMC.

Blackwell Ultra GB300 1

La semana de Nvidia y Jensen Huang es una muestra del poder transformador de la inteligencia artificial. Alcanzar los 5 billones de dólares y sellar acuerdos masivos con socios clave demuestra que Nvidia no solo está vendiendo chips, sino que está construyendo la infraestructura neuronal de la próxima economía global. La diversificación de sus alianzas y la visión estratégica de Huang buscan blindar a la compañía contra las fluctuaciones y las posibles burbujas, consolidándola como el pilar fundamental de la revolución de la IA. Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.