Seopatía #104: Una guía para principiantes de la Optimización para IA (AIO)
O más bien una aproximación - ya que nadie sabe mucho sobre esto por ahora 😇
¡Hola estimado lector! Bienvenido a esta nueva edición de la Seopatía. Durante los últimos meses he estado inmerso en mi día a día como consultor, estoy involucrado en proyectos muy interesantes y la verdad que "no me da la vida“.
Este envío me hace especial ilusión ya que creo que es uno de los primeros contenidos con cara y ojos respecto a "qué hacer para aparecer en la IA“, aunque obviamente no sabemos mucho y todo está muy verde.
Por otro lado quería aprovechar para comentar que iré al próximo Google Search Live en Madrid el próximo 9 de abril. ¡Si estás por allí no dudes en saludar!
También voy a organizar la primera cena de suscritores de la Seopatía el día anterior, 8 de abril. Tanto si vas al evento o no, si estás en Madrid… sería un placer verte. Si te apetece, responde a este correo y te mandaré más detalles.
Y ahora.. Con la AIOpatía. ¡Espero que te guste!
En los últimos meses, he tenido varias conversaciones con clientes en las que me han preguntado sobre cómo optimizar su presencia para plataformas de búsqueda de IA y chatbots como ChatGPT y Perplexity.
El interés en este ámbito ha crecido notablemente, y con razón: desde que ChatGPT integró la búsqueda web, personalmente he observado aumentos significativos de tráfico procedente de estas nuevas fuentes de IA. Algunos de mis clientes ahora reciben desde un 0,5% y hasta un 6% de su tráfico orgánico total de plataformas de IA, lo que pone de manifiesto cuán impactante es ya esta tendencia.
Patrones de tráfico de IA
Algunos de mis datos apuntan a algunos patrones interesantes en el tráfico procedente de la IA:
Los sitios web B2B están recibiendo niveles más altos de tráfico de IA, llegando a un 5-6% de su tráfico SEO total. Empresas como Vercel han anunciado que obtienen hasta un 5% de sus nuevos registros a través de ChatGPT (más info abajo)
El tráfico de IA es más frecuente en entornos de escritorio y en EE. UU. u otras regiones donde la adopción de IA es mayor (que tiende a correlacionarse con el desarrollo económico pero no se limita a ello).
La distribución de tráfico es muy asimétrica en comparación con los patrones de búsqueda tradicionales. Algunos obtienen mucho. Otros nada.
Un ejemplo particularmente interesante es el de un cliente de B2B SaaS cuya presencia en plataformas de IA es muy asimétrica en comparación con la búsqueda tradicional. Aunque su posicionamiento en Google es sólido, se posiciona excepcionalmente bien en Perplexity, convirtiéndose en la fuente más citada para muchas consultas clave, lo que da un tráfico significativo.
Es interesante ver que los B2B SaaS estén emergiendo como uno de los sectores que más se benefician del tráfico de la IA.
Por cortesía de uno de mis clientes, así se ve el tráfico de IA en un medio de comunicación, donde la IA aún aporta menos del 1% del total de tráfico (sobre todos los canales).
Cuando se trata de la optimización para IA —específicamente de optimizar tu presencia para LLMs — la verdad es que aún estamos en una fase temprana. No lo sabemos todo todavía, pero hay algunos aspectos clave que sí conocemos y que deberíamos estar implementando ya para asegurarnos de estar bien posicionados en este panorama emergente.
Mira este ejemplo de Ahrefs, de principios de 2023, y imagínate lo que deben tener ahora:
Y esto de Vercel hace unos días:
La guía para principiantes de la Optimización para IA (AIO)
Antes que nadie me sale a la yugular. Sí, la AIO es SEO básicamente, una especie de subset del SEO. No pretendo reinventar la rueda pero sí que creo que hay enfoques específicos que puedes seguir y que muy probablemente te van a ayudar más que estar en casa negando la mayor 😎
1. Permitir el rastreo por parte de los LLM
Uno de los primeros y más críticos pasos para optimizar para los LLM es asegurarse de que tu sitio web sea rastreable. Sorprendentemente, muchos sitios web actualmente bloquean crawlers de estos modelos de IA, a menudo de forma inadvertida, perjudicando su potencial visibilidad.
Para ilustrarlo, quiero compartir la historia de una empresa para la que trabajé. El Director de Producto y Tecnología (CPTO) decidió unilateralmente, sin tener en cuenta las recomendaciones de los expertos ni la información disponible online, bloquear todos los crawlers de IA para que no accedieran a los sitios web de la empresa, simplemente porque no le gustaba que la IA rastreara las propiedades y no confiaba específicamente en OpenAI.
Irónicamente, a pesar de esa postura, la empresa adoptó internamente la tecnología de OpenAI en varios equipos para mejorar y potenciar sus propios productos. Este enfoque, que fue altamente hipócrita y, a la larga, minó su visibilidad online en las plataformas de IA. A día de hoy buscas y no aparece prácticamente la marca.
Muchos sitios web están bloqueando crawlers de IA de dos maneras principales:
A través de robots.txt: El método transparente que explícitamente deniega ciertos bots.
A nivel de CDN: Un enfoque menos transparente que puede ser opaco incluso para las propias empresas que lo implementan.
Para asegurarte de que tu sitio esté optimizado de manera efectiva:
No bloquees a los LLM mediante robots.txt: Permite explícitamente el rastreo a todos los bots relevantes, incluidos (pero no limitado a) ChatGPT.
Asegúrate de que tu CDN no bloquee crawlers: Las redes de distribución de contenido (CDN) pueden impedir de forma involuntaria que los bots accedan al contenido; revisa la configuración para evitarlo.
Evita bloquear recursos importantes: Asegúrate de que el CSS, JavaScript, imágenes y otros recursos esenciales sean accesibles.
Facilitar el acceso de los crawlers no solo ayuda a que los LLMs entiendan tu contenido; también es crucial en los sistemas de Generación con Recuperación Aumentada (RAG), donde los modelos de IA recuperan y citan directamente el contenido de tus páginas web. Sin el acceso adecuado, tu contenido simplemente no aparecerá.
Si no crees que el rastreo de OAI sea real, deberías ver los impactos de los bots de unas marcas de ecommerce según Botify:
2. Facilita el descubrimiento mediante Sitemaps XML
A diferencia de Google Search Console o Bing Webmaster Tools, plataformas como OpenAI o Claude todavía no ofrecen consolas para webmasters. Esto significa que debes facilitar la indexación haciendo tu sitio fácil de descubrir:
Incluye la URL del sitemap en robots.txt: Especifica claramente la ubicación de tu sitemap.
Unifica tus reglas de rastreo: Idealmente, tener las mismas reglas para cada agente de usuario para asegurar un comportamiento de rastreo coherente en todas las plataformas.
Dado que Bing potencia numerosas plataformas de IA como ChatGPT, Perplexity, Grok y Copilot, resulta particularmente decepcionante que Bing Webmaster Tools (BWMT) aún no ofrezca información específica sobre la IA, entiendo que por complejidades varias y mucha info que en cierta manera ellos no tienen tampoco. No obstante, invertir en la optimización para Bing se está volviendo cada vez más sinónimo de optimizar para la visibilidad en IA.
La creciente importancia de Bing: Con la integración de Bing en Perplexity y otras plataformas de IA, su papel en el ecosistema de la IA se está volviendo cada vez más relevante. Esta integración está reconfigurando los patrones de tráfico de IA y las estrategias de rastreo, haciendo que la optimización para Bing sea más importante que nunca.
3. Entiende las características de los bots de crawling de la IA
Los rastreadores de IA difieren significativamente de los motores de búsqueda tradicionales en varios aspectos clave:
Limitaciones en el renderizado de JavaScript: Los crawlers de IA normalmente no renderizan JavaScript, lo que hace invisible el contenido renderizado del lado del cliente.
Patrones de rastreo únicos: Los crawlers de IA tienen patrones distintos a los de los buscadores tradicionales.
Menor enfoque en actualizaciones en tiempo real: Los crawlers de IA no requieren el mismo nivel de información actual que los crawlers tradicionales (almenos, para la mayoría de casos de uso)
Ecosistema diverso de bots: Hay un notable incremento en la actividad de varios bots de IA, incluidos bots de RAG, de entrenamiento y de indexación.
4. Limita el contenido renderizado del lado del cliente
El renderizado del lado del cliente puede resultar problemático para los LLM. Un análisis reciente de Vercel pone de relieve limitaciones importantes en la capacidad de los crawlers de IA para ejecutar JavaScript.
Los datos muestran que ninguno de los principales crawlers de IA, incluyendo GPTBot y Claude, actualmente renderiza JavaScript, aunque sí descargan archivos JavaScript (ChatGPT: 11,50%, Claude: 23,84% de las solicitudes). Cualquier contenido que dependa únicamente del renderizado del lado del cliente permanece, en la práctica, invisible para estos crawlers.
Para contenido crítico:
Prioriza el renderizado del lado del servidor (SSR), la Regeneración Estática Incremental (ISR) o la Generación de Sitios Estáticos (SSG).
Mantén redirecciones adecuadas y una gestión coherente de URLs para evitar altas tasas de errores 404, que ocurren con frecuencia con crawlers de IA como ChatGPT y Claude (cada uno alrededor del 34%).
Puedes encontrar más detalles en el informe completo de Vercel sobre el comportamiento de los crawlers de IA.
5. Gestiona la indexación de forma proactiva
Más allá del rastreo pasivo, enviar de manera proactiva tu contenido a índices de IA y buscadores tradicionales ofrece mayor visibilidad y control:
Aquí puedes utilizar APIs como IndexNow y las URL Submission APIs de Bing: Estas te permiten notificar directamente a los índices sobre nuevo contenido o contenido actualizado.
6. La importancia del contenido y experiencia de usuario
Los LLM son cada vez más sofisticados, superando a los motores de búsqueda tradicionales como Google o Bing en su capacidad para interpretar el contenido de forma significativa. Sin embargo, la frescura sigue siendo fundamental, ya que los modelos de IA aún dependen mucho de los motores de búsqueda tradicionales, especialmente Bing, para la información más reciente y actualizada. Por lo tanto, el SEO sigue siendo crucial.
Invertir en un contenido excepcional y en una experiencia de usuario fluida es más importante que nunca, ya que estos son diferenciadores clave que los modelos de IA cada vez reconocen y recompensan más.
7. Optimiza tu contenido para la IA
Crea contenido estructurado y fácil de escanear utilizando tablas, listas y encabezados claros que organicen la información en formatos compatibles con IA.
Elabora declaraciones deterministas en lugar de matizadas – “El ejercicio regular reduce el estrés en un 40%” se procesa más eficazmente que “Algunas formas de actividad física podrían ayudar a ciertas personas a gestionar el estrés dependiendo de varios factores”.
Establece patrones claros de pregunta-respuesta en todo tu contenido, especialmente en encabezados (H2/H3) seguidos de respuestas directas y concisas. Incluye secciones de FAQ completas que anticipen las consultas del usuario.
Aprovecha la terminología e insights específicos del sector que demuestren conocimiento exclusivo – “Según nuestro análisis de mercado de 10 años, los valores de propiedades costeras en Barcelona superan las inversiones en zonas interiores en un promedio del 12% anual”.
Enriquece el contexto semántico incorporando términos relacionados, sinónimos y vocabulario especializado que amplíe el marco conceptual que los sistemas de IA pueden reconocer.
Incorpora elementos humanos auténticos a través de anécdotas personales, estudios de caso y testimonios que aporten perspectivas únicas que la IA no puede generar – “Nuestro cliente aumentó la tasa de conversión en un 32% tras implementar estos cambios de contenido”.
Desarrolla puntos de vista diferenciados sobre temas comunes en lugar de repetir información ampliamente disponible. Por ejemplo, en lugar de consejos generales sobre el mercado inmobiliario, analiza cómo las tendencias de micronichos específicos afectan a determinados perfiles de compradores.
Equilibra la precisión técnica con la legibilidad incluyendo cifras concretas, análisis detallados e información especializada presentada en formatos accesibles.
Todo esto es cada vez más relevante para Google AI Overviews y el inminente Google AI Mode. Ambos sistemas dependen en gran medida del contenido de los resultados de búsqueda, pero se muestran en una interfaz donde el texto se genera de manera similar a Perplexity.
8. Controla y optimiza la velocidad (TTFB)
La velocidad del sitio web afecta de manera significativa la eficiencia del rastreo. Los sitios más rápidos permiten que los crawlers descubran e indexen más contenido de manera efectiva. Apunta a tener una buena respuesta del servidor con un Tiempo hasta el primer byte (TTFB) de 500 ms o menos para maximizar la eficiencia de los crawlers tradicionales y de IA.
9. Datos estructurados - Podrían ser importantes pero no estoy seguro
Si bien los datos estructurados siguen siendo esenciales para el SEO tradicional—particularmente en Google—no parece que influyan de manera significativa en tu presencia en los resultados de los LLM en la actualidad:
Sigue implementando datos estructurados para Google: Aunque no beneficie directamente la optimización para LLM por ahora, los datos estructurados siguen mejorando la visibilidad en la búsqueda de Google.
Esto también podría ser relevante no tanto en el concepto de resultados de IA o entrenamiento de modelos de IA, sino en aspectos secundarios. Considera resultados como Perplexity Shop, que podría nutrirse de un Product Schema. Mira la imagen de abajo. Precio, envío, etc. Podrían provenir muy probablemente de un marcado Schema…
No esperes que los datos estructurados mejoren tu visibilidad en la IA conversacional: Actualmente, no parece que los datos estructurados influyan de manera significativa en cómo los LLM interactúan con el contenido.
Recuerda que los LLM básicamente “leen” el contenido en texto plano, por lo que no parece que les importe la metadata como el Schema.
10. Controla la actividad de los bots mediante los logs de tu servidor
El análisis de tus logs es esencial para entender cómo los bots interactúan con tu sitio web:
Utiliza herramientas como Botify, Kibana de ElasticSearch, u otro software de análisis de logs para identificar problemas de rastreo, seguir el comportamiento de los crawlers y asegurarte de que los bots de IA estén descubriendo eficientemente tu contenido más importante.
Analiza los diferentes tipos de bots de IA: Monitoriza la actividad de distintos tipos de bots de IA, incluidos bots de RAG, bots de entrenamiento y bots de indexación, para entender sus patrones únicos.
11. Considera crear un archivo LLMs.txt
llms.txt es una nueva propuesta de archivo estándar para que los LLM entiendan mejor tu sitio web, dónde está cada cosa, etc., todo en formato markdown. Aunque este archivo es claramente solo un concepto y probablemente no sea utilizado por muchas entidades importantes hasta la fecha, puede servirte para estar preparado si este concepto se vuelve más generalizado.
Personalmente, no creo que se convierta en un estándar tal como está planteado hoy en día sin algunas modificaciones, pero podría tener sentido contar con algo en esta línea.
12. Analiza adecuadamente el tráfico de IA en tu Analytics
Poder identificar y segmentar el tráfico de la IA es clave para medir tus esfuerzos de AIO. Con mis clientes, he empezado a usar esta regex en Google Analytics 4 y resulta muy eficaz para aislar y analizar este segmento de tráfico.
Este es el patrón regex que uso personalmente y que te recomiendo vigilar de cerca.
(?i).*(\.ai$|copilot|gpt|chatgpt|openai|neeva|writesonic|nimble|outrider|perplexity|google.*bard|bard|edgeservices|gemini.*google|claude|anthropic|grok|mistral|palm|falcon|stable.*lm|deepseek|mixtral|inflection|jamba|command.*r|phi|qwen|yi|exaone|bloom|neox).*
Este patrón captura referencias de prácticamente todas las principales plataformas de IA, lo que te permite:
Medir la contribución del tráfico de IA en tu estrategia global de adquisición
Identificar qué plataformas de IA envían más visitantes
Analizar diferencias de comportamiento del usuario entre visitantes referidos por IA y los de búsqueda tradicional
Como comentaba al inicio, he observado que los patrones de tráfico de IA son mucho más asimétricos que los de búsqueda tradicional: algunos sitios reciben mucho tráfico mientras que otros apenas reciben nada, independientemente de su posicionamiento en Google. Eso también significa que habrá bastante oportunidad… creo.
13. Optimiza para la búsqueda multimodal
El panorama de la búsqueda de la IA evoluciona rápidamente más allá de las consultas de texto para incorporar voz, imagen y búsquedas de modalidades mixtas. Según mi experiencia, estas interacciones multimodales están creciendo de forma exponencial, especialmente a medida que dispositivos como altavoces inteligentes y cámaras móviles con IA se vuelven más sofisticados.
Para optimizar de manera efectiva estas capacidades:
Convierte el contenido existente para la búsqueda por voz reestructurándolo con patrones de lenguaje natural. Las consultas de voz suelen ser más largas, conversacionales y a menudo formuladas como preguntas completas en lugar de simples fragmentos de palabras clave.
Para la optimización de búsqueda visual, asegúrate de que todas las imágenes tengan nombres de archivo descriptivos, texto alternativo (alt) completo y metadatos EXIF (si es que quieres tenerlos, quizás no).
Al crear nuevo contenido, piensa “más allá de la palabra clave” estructurándolo para responder preguntas completas que la gente pueda hablar o escribir. Este enfoque no solo mejora la visibilidad en IA, sino que también potencia el rendimiento en búsquedas tradicionales al cubrir el tema de manera más exhaustiva.
14. Construye presencia en las fuentes de referencia de la IA
Entender de dónde obtienen la información los modelos de IA se ha convertido en un componente crítico. Algunas de las plataformas más prioritarias para la IA marcan la diferencia.
Wikipedia sigue siendo la fuente más citada en todos los grandes sistemas de IA, haciendo que una página de empresa o producto bien gestionada en Wikipedia sea cada vez más valiosa. Del mismo modo, plataformas como GitHub (para contenido técnico), Reddit (para comunidades) y medios de comunicación establecidos con fuerte autoridad de dominio aparecen constantemente como fuentes de citas.
Conclusión
Todavía estamos en las primeras etapas de entender exactamente cómo los LLM descubren y priorizan el contenido. Sin embargo, algo está claro: aunque los principios fundamentales de la Optimización para IA (AIO) y el SEO tradicional comparten similitudes, la optimización para IA requiere enfoques estratégicos específicos que van más allá de las prácticas de SEO convencionales.
Por ello, continúa invirtiendo en unas bases sólidas de SEO, crea contenido excelente y garantiza una experiencia de usuario fantástica. Además, ahora puedes ver tu presencia en la búsqueda y en las conversaciones de IA de forma similar a como haces SEO tradicional, gracias a las emergentes herramientas de seguimiento de rankings en IA.
Lo que sí sabemos con certeza que no te hará daño hacer y seguramente te ayude:
Permite un rastreo claro y completo para todos los bots de IA
Facilita el acceso mediante sitemaps y reglas de rastreo unificadas
Adáptate a las características únicas de rastreo de IA
Usa renderizado en el lado del servidor en lugar del renderizado del lado del cliente
Gestiona proactivamente las estrategias de indexación de tu contenido
Optimiza el formato del contenido para el consumo de IA con información estructurada y fácil de escanear
Monitorea de cerca el comportamiento de los crawlers a través del análisis de logs
Implementa segmentaciones de analítica para rastrear y medir el tráfico de IA
Prioriza la velocidad del sitio para un rastreo eficiente
Adapta el contenido a capacidades de búsqueda multimodal (voz, imagen, etc.)
Construye presencia estratégica en fuentes clave de referencia de IA como Wikipedia y en las plataformas que aportan el training de los sistemas de IA
La naturaleza asimétrica del tráfico de IA presentará oportunidades interesantes. A medida que este panorama evoluciona, quienes adapten sus estrategias para abarcar tanto la búsqueda tradicional como el descubrimiento vía IA tendrán buenos volúmenes de tráfico. Como ya comenté en su día, no tiene porque ser suma cero (o negativa).
Dicho todo esto.. Si has llegado hasta aquí, te mereces un regalo. Te dejo esta muy nueva extensión que he creado para emular la navegación en una web como si fueras un robot, obedeciendo el robots.txt de una web. Un poco nicho pero útil para algunas situaciones 😇
Gracias por leer Seopatía.
Si te ha gustado esta edición, no te olvides de dar al ❤️ y de compartirla por email o redes sociales con otras personas a las que les pueda gustar.
Y… esto es todo por hoy. Espero que te haya gustado… ¡Hasta la próxima! :)
Estoy inmerso en un proyecto desde cero y esta información es realmente interesante para ir profundizando en los próximos semanas.
Gracias
¡Muy interesante! Hay que ir aplicando muchas de estas cosas desde ya