Redes sociales se transforman en el nuevo Wikipedia
1/10/2021

Redes sociales se transforman en el nuevo Wikipedia

Compartí la noticia

Nota publicada en protocol.con

Una de las estadísticas favoritas de Google es que todos los días, aproximadamente el 15% de las consultas de Google son para cosas que nunca antes se habían escrito en el cuadro de búsqueda. E incluso a la escala imposible de Google, el número nunca parece bajar. “Parte de ello, tengo que admitir, es que la gente encuentra formas nuevas y creativas de mal ortografía”, me dijo Pandu Nayak, becario de Google y vicepresidente de búsqueda de la compañía, a principios de este mes. Pero hay otras dos razones, dijo: El mundo cambia todo el tiempo, y la curiosidad de la gente “es bastante infinita en su complejidad”.

El desafío de Google en la web es encontrar formas cada vez mejores de recopilar y ordenar información. Arrastrándose de páginas web es la parte fácil, relativamente hablando. ¿Entender cuál es la guía autorizada sobre vacunas y qué es la desinformación peligrosa, o si escribió “espaguetis” en busca de definiciones o recetas? Eso es mucho más complicado. Nayak sacudió números como los 3.600 cambios realizados en el sistema de búsqueda el año pasado, o los más de 60.000 experimentos realizados internamente. Es mucho trabajo, pero Google es mejor que la mayoría.

Pero está ocurriendo un cambio central en Internet que amenaza a Google de una manera seria y potencialmente existencial. Una cantidad cada vez mayor de la web no son páginas web llenas de texto e hipervínculos. Son imágenes, vídeo y audio. TikTok e Instagram, podcasts y videos: Esas plataformas son tanto “Internet” como las Wikipedias y los sitios de editores en los que Google ha confiado durante mucho tiempo. Y para la empresa que ha pasado dos décadas dedicada a organizar la información del mundo, eso presenta un problema.

En el evento Search On de Google el miércoles, los ejecutivos de Google mostraron algunas características nuevas y elegantes, como una función de cámara que puede tomar una foto de una camisa y encontrar calcetines con el mismo patrón. O una forma de tomar una foto de su cadena de bicicletas rotas y obtener resultados de búsqueda sobre cómo solucionarla. Todo es parte de Google Lens, el sistema de búsqueda visual que la compañía ha estado construyendo durante varios años. Google ha hablado durante mucho tiempo de querer llevar la búsqueda más allá del cuadro de texto, para que sea más fácil para las personas ingresar información y obtener respuestas. El contexto también es crucial para eso.

Pero igual de importante, e igual de difícil, es entender la información del otro lado. Técnicamente es posible buscar en TikTok e Instagram a través de Google, pero los resultados son bastante primitivos y se basan principalmente en hashtags y descripciones de videos. Según se informa, Google está trabajando en acuerdos con ByteDance y Facebook para traer más contenido con mejores metadatos a los resultados de búsqueda de Google, pero eso también es solo la mitad de la batalla.

Incluso en YouTube, en sí mismo el segundo motor de búsqueda más grande del mundo, y obviamente una empresa propiedad de Google, la búsqueda de Google se basa en metadatos y transcripciones generadas automáticamente para averiguar qué está pasando en un video. La introducción de marcadores de capítulo mejoró el sistema, pero solo porque los creadores dieron pistas a Google sobre dónde buscar. Sus rastreadores de búsqueda no entienden lo que hay en la pantalla de ninguna manera significativa.

Cuando presentó el nuevo sistema Multitask Unified Model de Google (o MUM, como se le conoce) en Google I/O en mayo, Nayak insinuó que las cosas podrían estar a punto de cambiar. “MUM es multimodal”, escribió en una entrada de blog, “por lo que entiende la información a través del texto y las imágenes y, en el futuro, puede expandirse a más modalidades como el vídeo y el audio”. Se hizo eco del sentimiento en nuestra conversación. “Puedes dar entradas [de MAMÁ] que sean tanto texto como imágenes, como una secuencia de fichas”, dijo. “Solo piensa en tokens… y esencialmente aprende las relaciones entre los tokens de imagen y los tokens de palabras, y creo que veremos una serie de ejemplos interesantes que salen de eso”. Dijo que eso no llegará de inmediato, sino “en un futuro tal vez no muy lejano”.

Si Google puede desbloquear un motor de búsqueda verdaderamente visual en ambas direcciones (consultas visuales, datos visuales, resultados visuales), puede estar mucho mejor equipado para ser para el futuro lo que, bueno, Google fue para el pasado. Hace más de dos décadas, la compañía tomó un conjunto dispar de contenido y lo puso al alcance de los usuarios. Ahora el contenido ha cambiado, pero la necesidad no.

¿La otra ventaja de Google? Compras. Prácticamente todos los rincones de Internet están adoptando las compras como una forma de ganar dinero, tanto para los creadores como para las plataformas. Para Google, el potencial es enorme: podría permitir a los usuarios hacer clic en cualquier producto en cualquier video o imagen en cualquier lugar de Internet, desde el dispositivo en primer plano hasta la lámpara en el fondo y los zapatos en los pies de los creadores, y ser llevados a una tienda para comprar esa cosa. MUM podría ayudar a Google a crear el catálogo más grande del mundo, con Google como un feliz servicio de cumplimiento y pago.

Las empresas de la industria, desde Spotify hasta Pinterest y Apple hasta prácticamente todas las demás plataformas y servicios que se ocupan de contenido audiovisual, están tratando de descubrir cómo comprender e indexar mejor el contenido en sus sistemas. Google, como el gigante tecnológico de un billón de dólares que se basa en comprender e indexar todo el contenido en todas partes, está en una carrera de alto riesgo para hacerlo mejor.

NOTICIAS IMPORTANTES

Suscribite a nuestro NewsLetter y recibí todas las noticias en tu mail