Una utilidad para crear mapeados UV personalizados

UV Checker Map Maker

El diseñador industrial y artista Jorge Valle es el creador de UV Checker Map Maker, una utilidad para crear mapas de «ajedrezados» con diversos colores, estilos, bordes y todo tipo de opciones. Un «fantástico recurso para quienes trabajan en 3D» según comenta nuestro admirado Cristobal Vila, que de estas cosas sabe un rato.

El mapeado UV se utiliza en modelado 3D para crear texturas bidimensionales y aplicarlas en pruebas. El hecho de probar antes con una versión ajedrezada bicolor o de diversos colores –en los que opcionalmente se pueden hasta ver las «coordenadas»– ayuda a encajar la textura mejor y pulir luego los detalles y cosidos de las imágenes. Las letras «UV» simbolizan los ejes XY de la textura 2D porque en la escena ya se usan como ejes XYZ.

La forma de utilizarlo es muy sencilla: en la parte derecha hay distintas paletas (una de las cuales puede crearse «a medida») para elegir los diversos colores. A la izquierda aparecen un montón de opciones con las que se puede juguetear: colores de los bordes, tipo de letra, tamaños, opacidad, frecuencia de las microrejilla, números o letras, grosores… Cuando todo está listo se puede pulsar cualquiera de los botones de abajo a la derecha 1K, 2K, 4K, 8K, para exportar la imagen en PNG.

Aunque es una herramienta muy específica para 3D, también hay que destacar la elegancia de la web app, que funciona de forma directa, clara y elegante; todo un ejemplo de aplicación directa, al grano y hecha con exquisito gusto.

# Enlace Permanente

Microsoft pone el último clavo en el ataúd de Windows 10X

Windows 10X
Windows 10X, el sistema operativo destinado a dispositivos con pantalla dual, ha sido cancelado oficialmente. A través de un comunicado, Microsoft confirmó que el proyecto nunca verá luz. Sin embargo, algunas de sus mejores funciones serán heredadas por Windows 10. De hecho, la compañía no lo ve como un fracaso, sino como una oportunidad de […]

Spotify da otro paso para ser el rey de los podcasts: añade transcripciones automáticas para leer en vez de escuchar

Spotify da otro paso para ser el rey de los podcasts: añade transcripciones automáticas para leer en vez de escuchar

La gran apuesta de Spotify en los últimos años ha sido por los podcasts. La plataforma de música en streaming es más bien una plataforma de audio en streaming, con la llegada y relevancia de los podcasts. En un esfuerzo por acaparar más mercado, Spotify ha anunciado nuevas funcionalidades, como transcribir los episodios de los podcasts de forma automática.

La compañía ha anunciado en las últimas horas un total de tres funciones de accesibilidad para su app móvil. Entre estas funciones quizás la más destacable de todas es la inclusión de las transcripciones automáticas. Esto, en líneas generales, significa pasar a texto las conversaciones de los episodios de los podcasts.

Spotify dice que en las próximas semanas llegará en forma de beta limitada la transcripción. Primero ocurrirá en los episodios de sus podcasts exclusivos y originales. Posteriormente y si todo va según lo esperado, dicen que en un futuro incluirán transcripción para todos los podcasts de su plataforma.

La transcripción de podcasts es una característica pensada principalmente para las personas con dificultades auditivas. Es perfecto para que sordos y otras personas con problemas de accesibilidad puedan disfrutar el contenido de los podcasts. Sin embargo, también puede ser útil para el resto de usuarios si quieren saber algo de un episodio sin escucharlo o si quieren saltar a una parte concreta de la conversación. Al hacer click en cualquier frase la reproducción va ese lugar.

d

En busca de ser referentes en podcast

Ahora que la funcionalidad ha sido anunciada, falta por ver cómo de buenas son estas transcripciones automáticas. También será interesante ver cómo de rápido estarán disponibles las transcripciones una vez los nuevos episodios sen publicados. Por otro lado y quizás más importante, cuándo llegará la característica a todos los podcasts de la plataforma.

Esto último es especialmente relevante porque es una característica que puede diferenciar a Spotify de otras plataformas. No son los primeros en transcribir podcasts de forma automática, pero sí los más grandes. Es una característica que puede hacer que más personas se decidan por usar Spotify para escuchar podcasts y es una característica que también puede acabar con apps y servicios de podcasts menores.

A base de podcasts en exclusiva, con contenido original, mediante la compra de herramientas y con funciones nuevas como esta Spotify se está convirtiendo en el gigante de los podcasts. ¿Su arma? Estar de parte de los creadores más que nadie.

Más información | Spotify

-
La noticia Spotify da otro paso para ser el rey de los podcasts: añade transcripciones automáticas para leer en vez de escuchar fue publicada originalmente en Xataka por Cristian Rus .

Smart Canvas, lo nuevo de Google Workspace para revolucionar la forma de colaborar

Google Workspace

Google Workspace comienza ahora una nueva andadura con la llegada de los lienzos inteligentes, o Smart Canvas, tras el cual irán llegando capacidades interconectadas con las diferentes aplicaciones que conforman la suite de productividad de Google, y que además tratará de evitar que los clientes tengan que acudir a plataformas de terceros para cubrir algunas de sus necesidades, quedando todo más cohesionado dentro de las aplicaciones de productividad en la suite de Google.

En el lado negativo, como ya se sabía desde hace varias semanas, Smart Canvas hará que muchas de las extensiones disponibles para Google Docs en la Chrome Web Store dejen de ser funcionales, y por tanto, queden completamente obsoletas.

Un salto cualitativo en la colaboración con los proyectos

Las capacidades, presentadas hoy en el evento inaugural de Google I/O 2021, irán llegando de ahora en adelante hasta final de este año. Entre ellas se encuentra Smart Chips, ya disponible, que básicamente permite interconectar documentos, listas de tareas, participantes, e incluso plantillas, simplemente escribiendo el símbolo @ junto al nombre del elemento a vincular, ya sea una lista de tareas, un contacto, una reunión, entre otras posibilidades.

Por ejemplo, se puede vincular un contacto con una lista de tareas o bien a los asistentes con invitaciones a reuniones, entre otras muchas posibilidades. Cabe decir que dentro de las novedades también se encuentra una tarjeta de contacto, tras el cual se mostrará la información de elementos o personas vinculadas, evitando así tener que acudir a otras pestañas para tener una visión más amplia del proyecto.

Por otro lado, si bien ya es posible compartir y editar documentos de Google Docs en Google Meet, para este otoño llegará la posibilidad de establecer videollamadas de Meet con los participantes dentro de la interfaz de Google Docs.

Google también ha anunciado que traerá reacciones de emojis en Google Docs, así como funciones de escritura asistida tras la que advertirá a los usuarios cuando puedan estar escribiendo usando un estilo ofensivo o que no sea inclusivo, o que incluya palabras malsonantes.

También contará con una vista sin página, y además, la posibilidad de asignar trabajos pendientes a cada miembro del equipo.

Por ahora, los usuarios podrán disponer de un relación de trabajos pendientes. En lo que respecta a la aplicación de Hojas de Cálculo llegará también una nueva vista de línea de tiempo que facilitará la gestión de los proyectos, ya que permitirá mostrar el estado en el que se encuentran los mismos, así como capacidades de análisis de datos tras la que los usuarios podrán recibir sugerencias de fórmulas que les permitan ser más eficaces.

Más información: Google

Si te ha gustado el contenido Invítanos a un café. ¡Gracias por seguir leyéndonos!
La noticia Smart Canvas, lo nuevo de Google Workspace para revolucionar la forma de colaborar fue publicada originalmente en Wwwhatsnew.com por Fco. José Hidalgo.

Google presume su nuevo campus de inteligencia artificial cuántica

Google da un paso al frente para la construcción de «un ordenador cuántico útil y con corrección de errores». Su intención es lograrlo dentro de la actual década, y por ello dio a conocer su nuevo campus de inteligencia artificial cuántica. El mismo está emplazado en Santa Barbara, California, y cuenta con una infraestructura envidiable. […]

MUM, la IA avanzada que responderá tus preguntas más complejas en el buscador de Google

Google Inteligencia Artificial MUM
MUM, la nueva inteligencia artificial de Google, será capaz de eliminar las barreras idiomáticas del conocimiento en las búsquedas.

Project Starline de Google es el futuro de las videollamadas: hologramas realistas para ver a la otra persona en tamaño real y 3D

Project Starline de Google es el futuro de las videollamadas: hologramas realistas para ver a la otra persona en tamaño real y 3D

Durante el Google I/O de hoy la compañía ha presentado un nuevo e interesante proyecto (entre otras cosas) en el que han estado trabajando últimamente: Project Starline. Mediante este servicio es posible hablar con una persona que se encuentra en otra ubicación física como si estuviera delante de nosotros gracias a un holograma a tamaño real. Si no son las videollamadas más realistas de la historia de la humanidad, se quedan cerca.

Project Starline no es una app, al menos no sólo una app. Se trata de un conjunto de hardware y software compuesto de múltiples cámaras y sensores junto a un gigantesco marco. En dicho marco veremos a la otra persona en su tamaño real y en tres dimensiones, mientras que el marco también recopila imágenes tridimensionales de nosotros para enviárselas a la otra persona.

Tres ingredientes para el truco mágico

En el video promocional se describe la experiencia como si estuvieras delante de la otra persona. Una experiencia que se consigue gracias al realismo del holograma para que captura la imagen en profundidad y gracias a que tiene exactamente el mismo tamaño que la persona real.

Durante el vídeo promocional Google describe que han sido necesarios tres factores para hacer realidad algo así. El primero de ellos es poder capturar con todo lujo de detalles a la persona que está hablando, de ahí que cuenten con múltiples cámaras que capturan en 3D y sensores de profundidad.

Screenshot 2

Una vez la información es capturada hay que hacer que llegue a la otra persona mediante Internet en tiempo real. Si a veces vemos a la otra persona pixelada en videollamadas, más aún debería ocurrir en un sistema como este que multiplica la cantidad de datos que recopila y envía. Google dice que un sistema interno se encarga de comprimir de forma considerada los datos para enviarlos y descomprimirlos en el otro lado. Todo en tiempo real.

Finalmente en el otro lado el marco de la otra persona se encarga de descomprimir los datos y mostrarlos en la pantalla de forma que parezca que el sujeto es real.

El sistema, al menos en el vídeo promocional, parece mágico. Da la sensación de que las dos personas están sentadas en la misma habitación y separadas solamente por un vidrio en un marco enorme. Este marco, claro, va a ser complicado que cada uno lo tenga en su casa. Es muy probable que si Project Starline llega a comercializarse en algún momento lo haga más para oficinas y profesionales que para hogares.

Vía | Google

-
La noticia Project Starline de Google es el futuro de las videollamadas: hologramas realistas para ver a la otra persona en tamaño real y 3D fue publicada originalmente en Xataka por Cristian Rus .

Detectar problemas en la piel (incluso cáncer) usando la cámara del móvil: eso busca Google con uno de sus últimos proyectos

Detectar problemas en la piel (incluso cáncer) usando la cámara del móvil: eso busca Google con uno de sus últimos proyectos

En un año aún azotado por la pandemia y con la monitorización de la salud como algo cada vez más inherente en nuestros dispositivos de consumo, Google ha reservado un anuncio de la Google I/O 2021 para hablar de un estudio en el que la idea es que el móvil nos ayude a detectar problemas dérmicos. Un proyecto de investigación que está llevando a cabo el departamento de Google Health con Northwstern Medicine.

Se trata de una herramienta basada en el uso de la inteligencia artificial de manera que pueda detectar problemas en la piel, pelo y uñas. Se basan en el uso de parte de las mismas tecnologías que se usan actualmente para detectar patologías como el cáncer de pulmón en una tomografía computerizada (CT), pero aplicadas a la cámara de un móvil.

Tres fotos para tener información útil de un posible problema

En el vídeo de presentación se ha mostrado como en el estudio se ha usado AI para repasar las CT y otros diagnósticos por imagen para entrenarla y que detectase cualquier problema. De este modo, el software podía revisar antes que los médicos las imágenes, notificando posibles incidencias y pudiendo revisar el caso y avisar al paciente (de tener que hacerlo) de manera más rápida.

Captura De Pantalla 2021 05 18 A Las 21 09 18

Esto es lo que están intentando acercar al usuario medio, llevándolo al móvil. Google lo describe por ahora como su herramienta de asistencia dermatológica por AI, y según lo mostrado funciona como si escaneásemos un QR o usásemos Google Lens con algún contenido, pero fotografiando lo que nos haga sospechar de nuestra piel.

La idea es que, una vez enviadas las tres fotos, la consulta se resuelva en pocos segundos, tras realizar una pequeña anamnesis o cuestionario. Serán preguntas sobre el órgano en cuestión, por ejemplo el tipo de piel o si se han tenido más síntomas.

Captura De Pantalla 2021 05 18 A Las 21 09 18

La herramienta analiza la información proporcionada y la coteja con una base de datos de 288 problemas de salud para dar una lista de posibilidades. Para cada una de ellas, el software mostrará información proveniente de profesionales (dermatólogos en este caso) y una lista de preguntas frecuentes resueltas.

Eso sí, enfatizan que no se trata de una herramienta de diagnóstico ni de sustituir la revisión de un médico. Google explica que lo que pretenden es que este tipo de consultas (según ellos, realizadas con frecuencia) tengan una respuesta más precisa y que ayuden a dar el siguiente paso, sea o no la visita a un profesional de la medicina.

La herramienta de asistencia dermatológica es el fruto de un trabajo de tres años, detallan, con varios estudios favorables ya publicados. Procuran que se contemplen todos los tipos y tonos de piel, de manera que han "entrenado" su tecnología con unas 65.000 imágenes y datos de casos de problemas de piel, así como millones de imágenes provenientes de consultas de este tipo y de piel sana.

En este caso, dado que se trata de una herramienta que tiene que ver con la salud, su lanzamiento depende de la legislación al respecto que tenga cada país en este sentido. Google apunta que el dispositivo se ha calificado como dispositivo médico de clase I dentro del marcado CE para equipos médicos y que aún no ha pasado las revisiones de la FDA, por lo que no está disponible en Estados Unidos por ahora.

Habiendo superado esta validación, Google espera que esta herramienta llegue a más usuarios en los próximos meses y facilita un formulario para que nos podamos registrar si nos interesa probar esta herramienta en cuanto esté disponible en nuestro país (de estarlo). Habrá que ver si esto logra ser de ayuda en el diagnóstico anticipado de problemas tan serios como las neoplasias. Desde luego, el potencial de la inteligencia artificial en este sentido [es prometedor desde hace años]https://www.xataka.com/medicina-y-salud/la-inteligencia-artificial-ya-detecta-cancer-de-piel-mejor-que-los-dermatologos-y-esto-si-es-un-exito-importante) y la idea de que sea una ayuda para la detección precoz (no una sustitución de los médicos ni mucho menos) es interesante.

-
La noticia Detectar problemas en la piel (incluso cáncer) usando la cámara del móvil: eso busca Google con uno de sus últimos proyectos fue publicada originalmente en Xataka por Anna Martí .

Para añadir capacidad de pagos con Google Pay en apps creadas con Flutter

Flutter-Google Pay

Todos aquellos desarrolladores que utilizan Flutter, el marco de desarrollo de Google para la creación de aplicaciones para Android e iOS, y de manera muy reciente también para las plataformas Windows, Linux, Mac y web gracias al lanzamiento de la versión 2.0, ahora lo tendrán más fácil para añadir capacidades de pago segura mediante el nuevo complemento de Google Pay que la propia Google acaba de presentar, coincidiendo con el inicio del evento Google I/O 2021.

Acorde a Google, el nuevo complemento de Google Pay para Flutter simplifica la adición de la capacidad de pagos en las aplicaciones que se estén creando para Android e iOS, siendo además de código abierto, con base de código única y escrita en el lenguaje de programación Dart.

De esta manera, los usuarios que utilicen dichas aplicaciones podrán realizar los pagos correspondientes de forma rápida y segura a través de Google Pay, que acorde a la descripción de Google:

permite brindar a los usuarios una experiencia de pago segura y rápida que aumenta las conversiones y lo libera de la necesidad de administrar tarjetas de crédito y pagos.

Este lanzamiento también puede tener una lectura diferente, ya que no deja de ser una estrategia comercial para expandir el uso de Google Pay como método de pago en el segmento de las aplicaciones móviles, permitiendo a los usuarios seguridad, rapidez y familiaridad en los pagos móviles.

Como indica claramente en la descripción, los usuarios no necesitarán memorizar ni tener que buscar los datos de sus tarjetas bancarias cada vez que tengan que realizar un pago con Google Pay, ya que es Google Pay quien dispondrá de esa información de forma segura.

No hay que olvidar que cada vez existen más métodos de pagos móviles con los que Google Pay tiene que competir, por lo que también tiene que aprovechar la oportunidad para hacer que su sistema pueda ser el más utilizado frente a la competencia.

De lado de los desarrolladores, los mismos disponen de las informaciones que necesitan, así como una serie de ejemplos, a través del comunicado oficial, disponiendo además de acceso a otras utilidades que les permitirán familiarizarse con el funcionamiento de Google Pay.

A partir de aquí, ya será cuestión de tiempo para que comencemos a ver las primeras implementaciones de Google Pay en aplicaciones creadas con Flutter, expandiendo así los pagos con Google Pay más allá de la aplicación nativa que podemos instalar en nuestros teléfonos móviles inteligentes.

Más información: Google Developers

Si te ha gustado el contenido Invítanos a un café. ¡Gracias por seguir leyéndonos!
La noticia Para añadir capacidad de pagos con Google Pay en apps creadas con Flutter fue publicada originalmente en Wwwhatsnew.com por Fco. José Hidalgo.

Google Maps también estrena pequeñas novedades, pero muy útiles

Google Maps
Los de Mountain View han presentado nuevas funcionalidades para Google Maps durante el Google I/O. Aunque no son cambios de peso en la funcionalidad de la aplicación, sí que se trata de mejoras interesantes que hacen del servicio de localización de Google uno más atractivo. Se trata e esas opciones pequeñas pero muy útil, como […]