{"id":20445,"date":"2025-05-23T21:39:27","date_gmt":"2025-05-24T05:39:27","guid":{"rendered":"https:\/\/ahrefs.com\/blog\/es\/?p=20445"},"modified":"2025-08-28T05:49:52","modified_gmt":"2025-08-28T13:49:52","slug":"llmo-black-hat","status":"publish","type":"post","link":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/","title":{"rendered":"El LLMO est\u00e1 en su era \u201cBlack Hat\u201d"},"content":{"rendered":"<div class=\"intro-txt\">Ya hemos visto esto antes. Una nueva tecnolog\u00eda surge. La visibilidad se convierte en una nueva moneda. Y la gente\u2014ejem, los SEO\u2014 se apresuran a jugar con el sistema.<\/div>\n<p>Ah\u00ed es donde estamos con la optimizaci\u00f3n para la visibilidad en los LLM (LLMO), y necesitamos m\u00e1s expertos que denuncien este comportamiento en nuestra industria, como Lily Ray ha hecho en <a href=\"https:\/\/www.linkedin.com\/posts\/lily-ray-44755615_seo-sge-ai-activity-7327723417573453824-OYga?utm_source=share\">esta publicaci\u00f3n<\/a>:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20450\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote.webp\" alt=\"Publicaci\u00f3n de Lily Ray en LinkedIn destacando la cita: &quot;\u00abOptimizar las respuestas\u00bb es ahora el nombre del juego del SEO, y ya estoy viendo a much\u00edsimas empresas y SEOs empezar a hacerlo de formas turbias y cuestionables&quot;.\" width=\"966\" height=\"683\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote.webp 966w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote-601x425.webp 601w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote-768x543.webp 768w\" sizes=\"auto, (max-width: 966px) 100vw, 966px\"><\/p>\n<p>Si est\u00e1s enga\u00f1ando, esculpiendo o manipulando un modelo de lenguaje grande para que te note y mencione m\u00e1s, hay una gran probabilidad de que sea \u201c<em>black hat<\/em>\u201d.<\/p>\n<p>Es como el SEO del 2004, cuando el \u201c<em>keyword stuffing<\/em>\u201d y los esquemas de enlaces funcionaban un poco demasiado bien.<\/p>\n<p>Pero esta vez, no solo estamos reorganizando los resultados de b\u00fasqueda. Estamos dando forma a la base del conocimiento de la que se nutren los&nbsp;LLM.<\/p>\n<div class=\"post-nav-link clearfix\" id=\"section1\"><a class=\"subhead-anchor\" data-tip=\"tooltip__copielink\" rel=\"#section1\"><svg width=\"19\" height=\"19\" viewBox=\"0 0 14 14\" style><g fill=\"none\" fill-rule=\"evenodd\"><path d=\"M0 0h14v14H0z\" \/><path d=\"M7.45 9.887l-1.62 1.621c-.92.92-2.418.92-3.338 0a2.364 2.364 0 0 1 0-3.339l1.62-1.62-1.273-1.272-1.62 1.62a4.161 4.161 0 1 0 5.885 5.884l1.62-1.62L7.45 9.886zM5.527 5.135L7.17 3.492c.92-.92 2.418-.92 3.339 0 .92.92.92 2.418 0 3.339L8.866 8.473l1.272 1.273 1.644-1.643A4.161 4.161 0 1 0 5.897 2.22L4.254 3.863l1.272 1.272zm-.66 3.998a.749.749 0 0 1 0-1.06l2.208-2.206a.749.749 0 1 1 1.06 1.06L5.928 9.133a.75.75 0 0 1-1.061 0z\" style \/><\/g><\/svg><\/a><div class=\"link-text\" data-section=\"aspecto-black-hat-optimizacion-llm\">\n<h2><strong>Qu\u00e9 aspecto tiene el \u201cblack hat\u201d para la optimizaci\u00f3n de&nbsp;LLM<\/strong><\/h2>\n<\/div><\/div>\n<p>En tecnolog\u00eda, <em>black hat<\/em> normalmente se refiere a t\u00e1cticas que manipulan sistemas de maneras que pueden funcionar temporalmente pero van en contra del esp\u00edritu de la plataforma, son poco \u00e9ticas, y a menudo tienen un efecto contraproducente cuando la plataforma se da cuenta.<\/p>\n<p>Tradicionalmente, el <a href=\"https:\/\/ahrefs.com\/blog\/es\/tacticas-seo-black-hat\/\">black hat SEO<\/a> ha tenido este aspecto:<\/p>\n<ul>\n<li>Poner texto blanco con exceso de palabras clave sobre un fondo blanco<\/li>\n<li>A\u00f1adir contenido oculto a tu c\u00f3digo, visible solo para los motores de b\u00fasqueda<\/li>\n<li>Crear redes de blogs privadas solo para enlazar a tu sitio&nbsp;web<\/li>\n<li>Mejorar rankings da\u00f1ando intencionadamente los sitios web de la competencia<\/li>\n<li>Y m\u00e1s\u2026<\/li>\n<\/ul>\n<p>Gan\u00f3 importancia porque (aunque era spam), funcion\u00f3 para muchos sitios web durante m\u00e1s de una d\u00e9cada.<\/p>\n<p>El <em>black hat<\/em> en LLMO se ve diferente de esto. Y, mucho de ello no <em>parece<\/em> inmediatamente spam, por lo que puede ser dif\u00edcil de detectar.<\/p>\n<p>Sin embargo, el <em>black hat<\/em> en LLMO tambi\u00e9n se basa en la intenci\u00f3n de manipular de forma no \u00e9tica patrones de lenguaje, procesos de entrenamiento de LLM, o conjuntos de datos para beneficio propio.<\/p>\n<p>Aqu\u00ed hay una comparaci\u00f3n lado a lado para darte una idea de lo que podr\u00eda incluir el <em>black hat<\/em> en LLMO. No es exhaustivo y es probable que evolucione a medida que los LLM se adapten y crezcan.<\/p>\n<div class=\"post-nav-link clearfix\" id=\"section1\"><a class=\"subhead-anchor\" data-tip=\"tooltip__copielink\" rel=\"#section1\"><svg width=\"19\" height=\"19\" viewBox=\"0 0 14 14\" style><g fill=\"none\" fill-rule=\"evenodd\"><path d=\"M0 0h14v14H0z\" \/><path d=\"M7.45 9.887l-1.62 1.621c-.92.92-2.418.92-3.338 0a2.364 2.364 0 0 1 0-3.339l1.62-1.62-1.273-1.272-1.62 1.62a4.161 4.161 0 1 0 5.885 5.884l1.62-1.62L7.45 9.886zM5.527 5.135L7.17 3.492c.92-.92 2.418-.92 3.339 0 .92.92.92 2.418 0 3.339L8.866 8.473l1.272 1.273 1.644-1.643A4.161 4.161 0 1 0 5.897 2.22L4.254 3.863l1.272 1.272zm-.66 3.998a.749.749 0 0 1 0-1.06l2.208-2.206a.749.749 0 1 1 1.06 1.06L5.928 9.133a.75.75 0 0 1-1.061 0z\" style \/><\/g><\/svg><\/a><div class=\"link-text\" data-anchor=\"LLMO Black Hat vs SEO Black Hat\" data-section=\"llmo-black-hat-vs-seo-black-hat\">\n<h2><strong>LLMO Black Hat vs SEO Black&nbsp;Hat<\/strong><\/h2>\n<\/div><\/div>\n\n<table id=\"tablepress-112\" class=\"tablepress tablepress-id-112 tablepress-responsive tablepress-ahrefs-width-720px\">\n<thead>\n<tr class=\"row-1\">\n\t<th class=\"column-1\">T\u00e1ctica<\/th><th class=\"column-2\">SEO<\/th><th class=\"column-3\">LLMO<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr class=\"row-2\">\n\t<td class=\"column-1\">Redes de blogs privados<\/td><td class=\"column-2\">Creadas para transferir valor de enlace a sitios objetivo.<\/td><td class=\"column-3\">Creadas para posicionar artificialmente una marca como la \u201cmejor\u201d en su categor\u00eda.<\/td>\n<\/tr>\n<tr class=\"row-3\">\n\t<td class=\"column-1\">SEO negativo<\/td><td class=\"column-2\">Se env\u00edan enlaces spam a competidores para bajar sus rankings o penalizar sus sitios web.<\/td><td class=\"column-3\">Votar negativamente respuestas de LLM con menciones a competidores o publicar contenido enga\u00f1oso sobre&nbsp;ellos.<\/td>\n<\/tr>\n<tr class=\"row-4\">\n\t<td class=\"column-1\">SEO parasitario<\/td><td class=\"column-2\">Usar el tr\u00e1fico de sitios web de alta autoridad para aumentar tu propia visibilidad.<\/td><td class=\"column-3\">Mejorar artificialmente la autoridad de tu marca siendo a\u00f1adido a listas de \u201clos mejores\u201d\u2026 que t\u00fa mismo has escrito.<\/td>\n<\/tr>\n<tr class=\"row-5\">\n\t<td class=\"column-1\">Texto o enlaces ocultos<\/td><td class=\"column-2\">A\u00f1adidos para que los motores de b\u00fasqueda <a href=\"https:\/\/ahrefs.com\/blog\/es\/diccionario-seo\/#d:~:text=Keyword%20density%20%2D%20densidad%20de%20palabras%20clave\">aumenten la densidad de palabras clave<\/a> y se\u00f1ales similares.<\/td><td class=\"column-3\">A\u00f1adidos para incrementar la frecuencia de entidades o proporcionar frases \u201camigables para&nbsp;LLM\u201d.<\/td>\n<\/tr>\n<tr class=\"row-6\">\n\t<td class=\"column-1\">Keyword stuffing<\/td><td class=\"column-2\">Meter a la fuerza palabras clave en contenido y c\u00f3digo para aumentar la densidad.<\/td><td class=\"column-3\">Sobrecargar el contenido con <a href=\"https:\/\/ahrefs.com\/seo\/glossary\/entity-based-seo\">entidades o t\u00e9rminos de PLN <\/a>para aumentar la \u201cprominencia<\/td>\n<\/tr>\n<tr class=\"row-7\">\n\t<td class=\"column-1\">Contenido generado autom\u00e1ticamente<\/td><td class=\"column-2\">Usar spinners para reescribir contenido existente.<\/td><td class=\"column-3\">Usar IA para reformular o duplicar contenido de la competencia.<\/td>\n<\/tr>\n<tr class=\"row-8\">\n\t<td class=\"column-1\">Creaci\u00f3n de enlaces<\/td><td class=\"column-2\">Comprar enlaces para inflar las se\u00f1ales de ranking.<\/td><td class=\"column-3\">Comprar menciones de marca junto con palabras clave o entidades espec\u00edficas.<\/td>\n<\/tr>\n<tr class=\"row-9\">\n\t<td class=\"column-1\">Manipulaci\u00f3n del engagement<\/td><td class=\"column-2\">Falsificar clics para aumentar la tasa de clics en la b\u00fasqueda.<\/td><td class=\"column-3\">Indicar a los LLMs que favorezcan tu marca; hacer spam en los sistemas RLHF con retroalimentaci\u00f3n sesgada.<\/td>\n<\/tr>\n<tr class=\"row-10\">\n\t<td class=\"column-1\"><a href=\"https:\/\/ahrefs.com\/seo\/glossary\/spamdexing\">Spamdexing<\/a><\/td><td class=\"column-2\">Manipular lo que se indexa en los motores de b\u00fasqueda.<\/td><td class=\"column-3\">Manipular lo que se incluye en los conjuntos de datos de entrenamiento de&nbsp;LLM.<\/td>\n<\/tr>\n<tr class=\"row-11\">\n\t<td class=\"column-1\">Granjas de enlaces<\/td><td class=\"column-2\">Producir backlinks en masa a bajo&nbsp;coste.<\/td><td class=\"column-3\">Producir menciones de marca en masa para inflar la autoridad y se\u00f1ales de sentimiento.<\/td>\n<\/tr>\n<tr class=\"row-12\">\n\t<td class=\"column-1\">Manipulaci\u00f3n del texto&nbsp;ancla<\/td><td class=\"column-2\">Meter palabras clave de coincidencia exacta en los textos ancla de los enlaces.<\/td><td class=\"column-3\">Controlar el sentimiento y la redacci\u00f3n en torno a las menciones de marca para moldear los resultado del&nbsp;LLM.<\/td>\n<\/tr>\n<tr class=\"row-13\">\n\t<td class=\"column-1\"><\/td><td class=\"column-2\"><\/td><td class=\"column-3\"><\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<!-- #tablepress-112 from cache -->\n<p>Estas t\u00e1cticas se reducen a tres comportamientos centrales y procesos de pensamiento que las hacen \u201c<em>black hat<\/em>\u201d.<\/p>\n<div class=\"post-nav-link clearfix\" id=\"section1\"><a class=\"subhead-anchor\" data-tip=\"tooltip__copielink\" rel=\"#section1\"><svg width=\"19\" height=\"19\" viewBox=\"0 0 14 14\" style><g fill=\"none\" fill-rule=\"evenodd\"><path d=\"M0 0h14v14H0z\" \/><path d=\"M7.45 9.887l-1.62 1.621c-.92.92-2.418.92-3.338 0a2.364 2.364 0 0 1 0-3.339l1.62-1.62-1.273-1.272-1.62 1.62a4.161 4.161 0 1 0 5.885 5.884l1.62-1.62L7.45 9.886zM5.527 5.135L7.17 3.492c.92-.92 2.418-.92 3.339 0 .92.92.92 2.418 0 3.339L8.866 8.473l1.272 1.273 1.644-1.643A4.161 4.161 0 1 0 5.897 2.22L4.254 3.863l1.272 1.272zm-.66 3.998a.749.749 0 0 1 0-1.06l2.208-2.206a.749.749 0 1 1 1.06 1.06L5.928 9.133a.75.75 0 0 1-1.061 0z\" style \/><\/g><\/svg><\/a><div class=\"link-text\" data-anchor=\"1. Manipular los procesos de entrenamiento de LLM\" data-section=\"manipular-procesos-entrenamiento-llm\">\n<h2><strong>1. Manipular los procesos de entrenamiento de&nbsp;LLM&nbsp;<\/strong><\/h2>\n<\/div><\/div>\n<p>Los modelos de lenguaje pasan por diferentes procesos de entrenamiento. La mayor\u00eda de estos ocurren antes de que los modelos sean lanzados al p\u00fablico; sin embargo, algunos procesos de entrenamiento son influenciados por usuarios p\u00fablicos.<\/p>\n<p>Uno de estos es el Aprendizaje por Refuerzo a partir de la Retroalimentaci\u00f3n Humana (RLHF por sus siglas en ingl\u00e9s).<\/p>\n<p>Es un m\u00e9todo de aprendizaje de inteligencia artificial que utiliza las preferencias humanas para recompensar a los LLM cuando ofrecen una buena respuesta y penalizarlos cuando ofrecen una mala respuesta.<\/p>\n<p>OpenAI tiene un gran diagrama para <a href=\"https:\/\/openai.com\/research\/instruction-following\">explicar c\u00f3mo funciona RLHF para InstructGPT<\/a>:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20451\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/2-how-reinforcement-learning-from-human-feedback-wor.webp\" alt=\"C\u00f3mo funciona el aprendizaje por refuerzo a partir de la retroalimentaci\u00f3n humana para InstructGPT.\" width=\"1952\" height=\"1158\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/2-how-reinforcement-learning-from-human-feedback-wor.webp 1952w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/2-how-reinforcement-learning-from-human-feedback-wor-680x403.webp 680w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/2-how-reinforcement-learning-from-human-feedback-wor-768x456.webp 768w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/2-how-reinforcement-learning-from-human-feedback-wor-1536x911.webp 1536w\" sizes=\"auto, (max-width: 1952px) 100vw, 1952px\"><\/p>\n<p>Los LLM que usan RLHF aprenden de sus interacciones directas con los usuarios\u2026 y probablemente ya veas hacia d\u00f3nde va esto para el <em>black hat<\/em> en&nbsp;LLMO.<\/p>\n<p>Pueden aprender de:<\/p>\n<ul>\n<li>Las conversaciones reales que tienen (incluyendo conversaciones hist\u00f3ricas)<\/li>\n<li>Las valoraciones de pulgar arriba\/abajo que los usuarios dan a las respuestas<\/li>\n<li>La selecci\u00f3n que un usuario hace cuando el LLM presenta m\u00faltiples opciones<\/li>\n<li>Los detalles de la cuenta del usuario u otros datos personalizados a los que el LLM tiene acceso<\/li>\n<\/ul>\n<p>Por ejemplo, aqu\u00ed hay una conversaci\u00f3n en ChatGPT que indica que aprendi\u00f3 (y posteriormente adapt\u00f3 su comportamiento futuro) bas\u00e1ndose en la conversaci\u00f3n directa que tuvo con este usuario:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20452\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/3-screenshot-of-a-chatgpt-conversation-where-it-lear.webp\" alt=\"Captura de pantalla de una conversaci\u00f3n de ChatGPT donde aprendi\u00f3 informaci\u00f3n personal sobre el usuario.\" width=\"1078\" height=\"919\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/3-screenshot-of-a-chatgpt-conversation-where-it-lear.webp 1078w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/3-screenshot-of-a-chatgpt-conversation-where-it-lear-499x425.webp 499w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/3-screenshot-of-a-chatgpt-conversation-where-it-lear-768x655.webp 768w\" sizes=\"auto, (max-width: 1078px) 100vw, 1078px\"><\/p>\n<p>Ahora, esta respuesta tiene algunos problemas: la respuesta se contradice a s\u00ed misma, el usuario no mencion\u00f3 su nombre en conversaciones pasadas, y ChatGPT no puede usar la raz\u00f3n o el juicio para se\u00f1alar con precisi\u00f3n d\u00f3nde o c\u00f3mo aprendi\u00f3 el nombre del usuario.<\/p>\n<p>Pero el hecho es que este LLM aprendi\u00f3 algo que no podr\u00eda haber aprendido solo a trav\u00e9s de datos de entrenamiento y b\u00fasqueda. Solo pudo aprenderlo de su interacci\u00f3n con este usuario.<\/p>\n<p>Y esta es exactamente la raz\u00f3n por la que es f\u00e1cil manipular estas se\u00f1ales para beneficio propio.<\/p>\n<p>Es ciertamente posible que, de manera similar a c\u00f3mo Google usa una clasificaci\u00f3n de \u201c<a href=\"https:\/\/ahrefs.com\/blog\/es\/diccionario-seo\/#:~:text=YMYL%20pages%20%2D%20Your%20Money%20or%20Your%20Life%20(Tu%20dinero%20o%20tu%C2%A0vida)\">tu dinero, tu vida<\/a>\u201d para contenido que podr\u00eda causar un da\u00f1o real a los buscadores, los LLM le den m\u00e1s peso a temas o tipos de informaci\u00f3n espec\u00edficos.<\/p>\n<p>A diferencia de la b\u00fasqueda tradicional de Google, que ten\u00eda un n\u00famero significativamente menor de factores de clasificaci\u00f3n, los LLM tienen illiones (millones, miles de millones o billones) de par\u00e1metros que ajustar para varios escenarios.<\/p>\n\n<table id=\"tablepress-113\" class=\"tablepress tablepress-id-113 tablepress-responsive tablepress-ahrefs-width-full\">\n<thead>\n<tr class=\"row-1\">\n\t<th class=\"column-1\">Modelo<\/th><th class=\"column-2\">Par\u00e1metros<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr class=\"row-2\">\n\t<td class=\"column-1\">GPT-1<\/td><td class=\"column-2\"><a href=\"https:\/\/ipspecialist.net\/the-history-of-chatgpt-from-gpt-1-to-gpt-4\/#:~:text=GPT%2D1%3A%20GPT%2D1%20was%20the%20first%20edition%20of%20the%20GPT%20family%20of%20language%20models%2C%20released%20in%202018.%20It%20had%20117%20million%20parameters%20and%20was%20trained%20on%20a%20large%20corpus%20of%20text%20data.%20Despite%20its%20tiny%20size%20in%20comparison%20to%20later%20versions%2C%20GPT%2D1%20performed%20well%20in%20natural%20language%20processing%20tasks.\">~117 millones<\/a><\/td>\n<\/tr>\n<tr class=\"row-3\">\n\t<td class=\"column-1\">GPT-2<\/td><td class=\"column-2\"><a href=\"https:\/\/ipspecialist.net\/the-history-of-chatgpt-from-gpt-1-to-gpt-4\/#:~:text=GPT%2D2%3A%20With%201.5%20billion%20parameters%2C%20GPT%2D2%2C%20which%20was%20launched%20in%202019%2C%20was%20a%20significant%20upgrade%20over%20its%20predecessor.%20GPT%2D2%20could%20generate%20human%2Dlike%20prose%20and%20perform%20natural%20language%20processing%20tasks%20like%20language%20translation%2C%20question%20answering%2C%20and%20text%20completion.\">~1.5 billones<\/a><\/td>\n<\/tr>\n<tr class=\"row-4\">\n\t<td class=\"column-1\">GPT-3<\/td><td class=\"column-2\"><a href=\"https:\/\/ipspecialist.net\/the-history-of-chatgpt-from-gpt-1-to-gpt-4\/#:~:text=GPT%2D3%3A,and%20question%20answering.\">~175 billones<\/a><\/td>\n<\/tr>\n<tr class=\"row-5\">\n\t<td class=\"column-1\">GPT-4<\/td><td class=\"column-2\"><a href=\"https:\/\/the-decoder.com\/gpt-4-architecture-datasets-costs-and-more-leaked\/#:~:text=OpenAI%20GPT%2D4%20is%20said%20to%20be%20based%20on%20the%20Mixture%20of%20Experts%20architecture%20and%20has%201.76%20trillion%20parameters.\">~1.76 trillones<\/a><\/td>\n<\/tr>\n<tr class=\"row-6\">\n\t<td class=\"column-1\">GPT-5<\/td><td class=\"column-2\"><a href=\"https:\/\/lifearchitect.ai\/gpt-5\/#:~:text=Sidenote%3A%20An%20order%20of%20magnitude%20bigger%20than%201.76%20trillion%20parameters%20MoE%20is%2017.6%20trillion%20parameters%20MoE%2C%20or%20around%203.5T%20parameters%20dense.\">~17.6 trillones<\/a> (se especula)<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<!-- #tablepress-113 from cache -->\n<p>Por ejemplo, el ejemplo anterior se relaciona con la privacidad del usuario, lo cual tendr\u00eda m\u00e1s importancia y peso que otros temas. Es probable que esa sea la raz\u00f3n por la que el LLM realiz\u00f3 el cambio de inmediato.<\/p>\n<p>Afortunadamente, no es tan f\u00e1cil forzar a un LLM a aprender otras cosas, como descubri\u00f3 el equipo de <a href=\"https:\/\/www.rebootonline.com\/blog\/rlhf-geo-experiment\/\">Reboot<\/a> al probar este tipo exacto de manipulaci\u00f3n de&nbsp;RLHF.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20453\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-reboots-black-hat-llmo-experiment-conclusion-high.webp\" alt=\"La conclusi\u00f3n del experimento &quot;black hat&quot; de LLMO de Reboot, destacando &quot;no pudimos conseguir que los modelos de IA que est\u00e1bamos probando nos dieran las respuestas deseadas&quot;.\" width=\"1365\" height=\"377\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-reboots-black-hat-llmo-experiment-conclusion-high.webp 1365w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-reboots-black-hat-llmo-experiment-conclusion-high-680x188.webp 680w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-reboots-black-hat-llmo-experiment-conclusion-high-768x212.webp 768w\" sizes=\"auto, (max-width: 1365px) 100vw, 1365px\"><\/p>\n<p>Como marketers, somos responsables de asesorar a los clientes sobre c\u00f3mo aparecer en las nuevas tecnolog\u00edas que sus clientes utilizan para buscar. Sin embargo, esto no deber\u00eda provenir de manipular esas tecnolog\u00edas para un beneficio ego\u00edsta.<\/p>\n<p>Existe una delgada l\u00ednea que, cuando se cruza, envenena el pozo para todos. Esto me lleva al segundo comportamiento central del <em>black hat<\/em> en&nbsp;LLMO\u2026<\/p>\n<div class=\"post-nav-link clearfix\" id=\"section1\"><a class=\"subhead-anchor\" data-tip=\"tooltip__copielink\" rel=\"#section1\"><svg width=\"19\" height=\"19\" viewBox=\"0 0 14 14\" style><g fill=\"none\" fill-rule=\"evenodd\"><path d=\"M0 0h14v14H0z\" \/><path d=\"M7.45 9.887l-1.62 1.621c-.92.92-2.418.92-3.338 0a2.364 2.364 0 0 1 0-3.339l1.62-1.62-1.273-1.272-1.62 1.62a4.161 4.161 0 1 0 5.885 5.884l1.62-1.62L7.45 9.886zM5.527 5.135L7.17 3.492c.92-.92 2.418-.92 3.339 0 .92.92.92 2.418 0 3.339L8.866 8.473l1.272 1.273 1.644-1.643A4.161 4.161 0 1 0 5.897 2.22L4.254 3.863l1.272 1.272zm-.66 3.998a.749.749 0 0 1 0-1.06l2.208-2.206a.749.749 0 1 1 1.06 1.06L5.928 9.133a.75.75 0 0 1-1.061 0z\" style \/><\/g><\/svg><\/a><div class=\"link-text\" data-anchor=\"2. Envenenar los conjuntos de datos que usan los LLM\" data-section=\"envenenar-conjuntos-datos-usan-llm\">\n<h2><strong>2. Envenenar los conjuntos de datos que usan los&nbsp;LLM<\/strong><\/h2>\n<\/div><\/div>\n<p>Perm\u00edteme resaltar la palabra \u201cenvenenar\u201d por un momento porque no la estoy usando para crear un efecto dram\u00e1tico.<\/p>\n<p>Los ingenieros usan este lenguaje para describir la manipulaci\u00f3n de los conjuntos de datos de entrenamiento de LLM como \u201cenvenenamiento de la cadena de suministro\u201d.<\/p>\n<p>Algunos SEO lo est\u00e1n haciendo intencionalmente. Otros simplemente est\u00e1n siguiendo consejos que suenan inteligentes, pero que est\u00e1n peligrosamente mal informados.<\/p>\n<p>Probablemente has visto publicaciones o escuchado sugerencias como:<\/p>\n<ul>\n<li>\u201cTienes que meter tu marca en los datos de entrenamiento del&nbsp;LLM.\u201d<\/li>\n<li>\u201cUsa la ingenier\u00eda de caracter\u00edsticas para hacer que tus datos brutos sean m\u00e1s amigables para el&nbsp;LLM.\u201d<\/li>\n<li>\u201cInfluye en los patrones que los LLM aprenden para favorecer tu&nbsp;marca.\u201d<\/li>\n<li>\u201cPublica art\u00edculos recopilatorios nombr\u00e1ndote como el mejor, para que los LLM lo recojan.\u201d<\/li>\n<li>\u201cA\u00f1ade contenido sem\u00e1nticamente rico que vincule tu marca con t\u00e9rminos de alta autoridad.\u201d<\/li>\n<\/ul>\n<p>Le pregunt\u00e9 a Brandon Li, un ingeniero de aprendizaje autom\u00e1tico en Ahrefs, c\u00f3mo reaccionan los ingenieros ante las personas que optimizan espec\u00edficamente para la visibilidad en los conjuntos de datos utilizados por los LLM y los motores de b\u00fasqueda. Su respuesta fue directa:<\/p>\n<blockquote class=\"small\"><div class=\"quote-content\">\n<p><em>Por favor, no hag\u00e1is esto; estropea el conjunto de&nbsp;datos.<\/em><\/p>\n<\/div><div class=\"quote-info clearfix\"><div class=\"quote-photo\"><img decoding=\"async\" alt=\"Brandon Li\" src=\"https:\/\/ahrefs.com\/blog\/wp-content\/uploads\/2025\/04\/Brandon-Li.png\"><\/div><div class=\"extra-box\"><span class=\"quote-author\">Brandon Li,<\/span> <span class=\"quote-author-job\">Ingeniero de Machine Learning en<\/span><\/div><\/div><\/blockquote>\n<p>La diferencia entre c\u00f3mo piensan los SEOs y c\u00f3mo piensan los ingenieros es importante. Entrar en un conjunto de datos de entrenamiento no es como ser indexado por Google. No es algo en lo que debas intentar meterte por la fuerza.<\/p>\n<p>Tomemos el <a href=\"https:\/\/ahrefs.com\/blog\/es\/marcado-schema\/\"><em>marcado schema<\/em><\/a> como ejemplo de un conjunto de datos que utilizan los ingenieros de b\u00fasqueda.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-20564 size-full\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-semantic-seo-SPA.png\" alt=\"C\u00f3mo funciona el marcado schema\" width=\"2000\" height=\"2296\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-semantic-seo-SPA.png 2000w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-semantic-seo-SPA-370x425.png 370w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-semantic-seo-SPA-768x882.png 768w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-semantic-seo-SPA-1338x1536.png 1338w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/4-semantic-seo-SPA-1784x2048.png 1784w\" sizes=\"auto, (max-width: 2000px) 100vw, 2000px\"><\/p>\n<p>En SEO, se ha utilizado durante mucho tiempo para mejorar c\u00f3mo aparece el contenido en la b\u00fasqueda y mejorar las tasas de&nbsp;clics.<\/p>\n<p>Pero hay una delgada l\u00ednea entre <em>optimizar<\/em> y <em>abusar<\/em> del marcado schema; especialmente cuando se usa para forzar relaciones de entidades que no son precisas o merecidas.<\/p>\n<p>Cuando el marcado schema se usa incorrectamente a escala (ya sea deliberadamente o simplemente por profesionales no cualificados que siguen malos consejos), los ingenieros dejan de confiar por completo en la fuente de datos. Se vuelve confusa, poco fiable e inadecuada para el entrenamiento.<\/p>\n<p>Si se hace con la intenci\u00f3n de manipular las salidas del modelo corrompiendo las entradas, eso ya no es SEO. Eso es envenenar la cadena de suministro.<\/p>\n<p>Esto no es solo un problema de&nbsp;SEO.<\/p>\n<p>Los ingenieros ven el envenenamiento de conjuntos de datos como un riesgo de ciberseguridad, uno con consecuencias en el mundo&nbsp;real.<\/p>\n<p>Tomemos como ejemplo a Mithril Security, una empresa centrada en la transparencia y la privacidad en la IA. Su equipo realiz\u00f3 una prueba para demostrar lo f\u00e1cil que podr\u00eda ser corromper un modelo usando datos envenenados. El resultado fue <a href=\"https:\/\/blog.mithrilsecurity.io\/poisongpt-how-we-hid-a-lobotomized-llm-on-hugging-face-to-spread-fake-news\/\">PoisonGPT<\/a> \u2014 una versi\u00f3n manipulada de GPT-2 que repet\u00eda con confianza noticias falsas insertadas en su conjunto de datos de entrenamiento.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20455\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/6-mithril-securitys-test-creating-poisongpt-to-spre.jpg\" alt=\"Prueba de Mithril Security creando PoisonGPT para difundir noticias falsas.\" width=\"1379\" height=\"1020\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/6-mithril-securitys-test-creating-poisongpt-to-spre.jpg 1379w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/6-mithril-securitys-test-creating-poisongpt-to-spre-575x425.jpg 575w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/6-mithril-securitys-test-creating-poisongpt-to-spre-768x568.jpg 768w\" sizes=\"auto, (max-width: 1379px) 100vw, 1379px\"><\/p>\n<p>Su objetivo no era difundir desinformaci\u00f3n. Era demostrar lo poco que se necesita para comprometer la fiabilidad de un modelo si la cadena de datos no est\u00e1 protegida.<\/p>\n<p>M\u00e1s all\u00e1 de los marketers, los tipos de malos actores que intentan manipular los datos de entrenamiento incluyen hackers, estafadores, distribuidores de noticias falsas y grupos con motivaciones pol\u00edticas que buscan controlar la informaci\u00f3n o distorsionar las conversaciones.<\/p>\n<p>Cuanto m\u00e1s se involucren los SEOs en la manipulaci\u00f3n de conjuntos de datos, intencionalmente o no, m\u00e1s comenzar\u00e1n los ingenieros a vernos como parte del mismo conjunto de problemas.<\/p>\n<p>No como optimizadores. Sino como amenazas a la integridad de los&nbsp;datos.<\/p>\n<h3><strong>Por qu\u00e9 meterse en un conjunto de datos es el objetivo equivocado de todos&nbsp;modos<\/strong><\/h3>\n<p>Hablemos de n\u00fameros. Cuando OpenAI <a href=\"https:\/\/arxiv.org\/pdf\/2005.14165\">entren\u00f3 a GPT-3<\/a>, comenzaron con los siguientes conjuntos de&nbsp;datos:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20456\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/7-list-of-datasets-used-to-train-openais-gpt-3-mode.webp\" alt=\"Lista de conjuntos de datos utilizados para entrenar el modelo GPT-3 de OpenAI.\" width=\"1122\" height=\"375\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/7-list-of-datasets-used-to-train-openais-gpt-3-mode.webp 1122w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/7-list-of-datasets-used-to-train-openais-gpt-3-mode-680x227.webp 680w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/7-list-of-datasets-used-to-train-openais-gpt-3-mode-768x257.webp 768w\" sizes=\"auto, (max-width: 1122px) 100vw, 1122px\"><\/p>\n<p>Inicialmente, se utilizaron 45 TB de datos de CommonCrawl (~60% del total de datos de entrenamiento). Pero solo 570 GB (alrededor del 1.27%) llegaron al conjunto de entrenamiento final despu\u00e9s de un exhaustivo proceso de limpieza de&nbsp;datos.<\/p>\n<p>\u00bfQu\u00e9 se conserv\u00f3?<\/p>\n<ul>\n<li>P\u00e1ginas que se asemejaban a material de referencia de alta calidad (piensa en textos acad\u00e9micos, documentaci\u00f3n de nivel experto, libros)<\/li>\n<li>Contenido que no estaba duplicado en otros documentos<\/li>\n<li>Una peque\u00f1a cantidad de contenido confiable seleccionado manualmente para mejorar la diversidad<\/li>\n<\/ul>\n<p>Si bien OpenAI no ha proporcionado transparencia para modelos posteriores, expertos como el <a href=\"https:\/\/lifearchitect.ai\/whats-in-gpt-5\/\">Dr Alan D. Thompson<\/a> han compartido algunos an\u00e1lisis y perspectivas sobre los conjuntos de datos utilizados para entrenar GPT-5:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20457\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/8-list-of-data-sets-dr-alan-d-thompson-suggests-may.webp\" alt=\"Lista de conjuntos de datos que el Dr. Alan D. Thompson sugiere que podr\u00edan usarse para entrenar el modelo GPT-5 de OpenAI.\" width=\"598\" height=\"958\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/8-list-of-data-sets-dr-alan-d-thompson-suggests-may.webp 598w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/8-list-of-data-sets-dr-alan-d-thompson-suggests-may-265x425.webp 265w\" sizes=\"auto, (max-width: 598px) 100vw, 598px\"><\/p>\n<p>Esta lista incluye fuentes de datos que son mucho m\u00e1s abiertas a la manipulaci\u00f3n y m\u00e1s dif\u00edciles de limpiar, como publicaciones de Reddit, comentarios de YouTube y contenido de Wikipedia, por nombrar algunos.<\/p>\n<p>Los conjuntos de datos continuar\u00e1n cambiando con los nuevos lanzamientos de modelos. Pero sabemos que los conjuntos de datos que los ingenieros consideran de mayor calidad se muestrean con mayor frecuencia durante el proceso de entrenamiento que los conjuntos de datos de menor calidad, \u201cruidosos\u201d.<\/p>\n<p>Dado que GPT-3 se entren\u00f3 con solo el 1.27% de los datos de CommonCrawl, y los ingenieros est\u00e1n siendo m\u00e1s cuidadosos con la limpieza de los conjuntos de datos, es incre\u00edblemente dif\u00edcil insertar tu marca en el material de entrenamiento de un&nbsp;LLM.<\/p>\n<p>Y, si ese es tu objetivo, entonces, como SEO, est\u00e1s perdiendo el&nbsp;punto.<\/p>\n<p>La mayor\u00eda de los LLM ahora aumentan las respuestas con b\u00fasquedas en tiempo real. De hecho, buscan m\u00e1s que los humanos.<\/p>\n<p>Por ejemplo, ChatGPT realiz\u00f3 m\u00e1s de 89 b\u00fasquedas en 9 minutos para una de mis \u00faltimas consultas:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20458\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/9-screenshot-of-a-response-in-a-chatgpt-conversation.webp\" alt=\"Captura de pantalla de una respuesta en una conversaci\u00f3n de ChatGPT indicando que realiz\u00f3 89 b\u00fasquedas.\" width=\"1012\" height=\"186\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/9-screenshot-of-a-response-in-a-chatgpt-conversation.webp 1012w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/9-screenshot-of-a-response-in-a-chatgpt-conversation-680x125.webp 680w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/9-screenshot-of-a-response-in-a-chatgpt-conversation-768x141.webp 768w\" sizes=\"auto, (max-width: 1012px) 100vw, 1012px\"><\/p>\n<p>En comparaci\u00f3n, rastre\u00e9 una de mis <a href=\"https:\/\/ahrefs.com\/blog\/es\/sxo-search-experience-optimization\/\">experiencias de b\u00fasqueda<\/a> al comprar un cortador l\u00e1ser y realic\u00e9 195 b\u00fasquedas en m\u00e1s de 17 horas como parte de mi viaje de b\u00fasqueda general.<\/p>\n<p>Los LLM est\u00e1n investigando m\u00e1s r\u00e1pido, m\u00e1s profundo y m\u00e1s amplio que cualquier usuario individual, y a menudo citan m\u00e1s recursos de los que un buscador promedio normalmente har\u00eda clic al simplemente buscar una respuesta en Google.<\/p>\n<p>Aparecer en las respuestas haciendo un buen SEO (en lugar de intentar colarse en los datos de entrenamiento) es el mejor camino a seguir aqu\u00ed.<\/p>\n<p>Una forma f\u00e1cil de comparar tu visibilidad es en Web Analytics de Ahrefs:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20459\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/10-ahrefs-web-analytics-allows-you-to-track-traffic.webp\" alt=\"Captura de pantalla de una respuesta en una conversaci\u00f3n de ChatGPT indicando que realiz\u00f3 89 b\u00fasquedas.\" width=\"1536\" height=\"1230\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/10-ahrefs-web-analytics-allows-you-to-track-traffic.webp 1536w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/10-ahrefs-web-analytics-allows-you-to-track-traffic-531x425.webp 531w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/10-ahrefs-web-analytics-allows-you-to-track-traffic-768x615.webp 768w\" sizes=\"auto, (max-width: 1536px) 100vw, 1536px\"><\/p>\n<p>Aqu\u00ed puedes analizar exactamente qu\u00e9 LLM est\u00e1n dirigiendo tr\u00e1fico a tu sitio y qu\u00e9 p\u00e1ginas est\u00e1n apareciendo en sus respuestas.<\/p>\n<p>Sin embargo, puede ser tentador empezar a optimizar tu contenido con texto \u201crico en entidades\u201d o una redacci\u00f3n m\u00e1s \u201camigable para LLM\u201d para mejorar su visibilidad en los LLMs, lo que nos lleva al tercer patr\u00f3n de <em>black hat<\/em> en&nbsp;LLMO.<\/p>\n<div class=\"post-nav-link clearfix\" id=\"section1\"><a class=\"subhead-anchor\" data-tip=\"tooltip__copielink\" rel=\"#section1\"><svg width=\"19\" height=\"19\" viewBox=\"0 0 14 14\" style><g fill=\"none\" fill-rule=\"evenodd\"><path d=\"M0 0h14v14H0z\" \/><path d=\"M7.45 9.887l-1.62 1.621c-.92.92-2.418.92-3.338 0a2.364 2.364 0 0 1 0-3.339l1.62-1.62-1.273-1.272-1.62 1.62a4.161 4.161 0 1 0 5.885 5.884l1.62-1.62L7.45 9.886zM5.527 5.135L7.17 3.492c.92-.92 2.418-.92 3.339 0 .92.92.92 2.418 0 3.339L8.866 8.473l1.272 1.273 1.644-1.643A4.161 4.161 0 1 0 5.897 2.22L4.254 3.863l1.272 1.272zm-.66 3.998a.749.749 0 0 1 0-1.06l2.208-2.206a.749.749 0 1 1 1.06 1.06L5.928 9.133a.75.75 0 0 1-1.061 0z\" style \/><\/g><\/svg><\/a><div class=\"link-text\" data-anchor=\"3. Esculpir patrones de lenguaje para un beneficio ego\u00edsta\" data-section=\"esculpir-patrones-lenguaje-beneficio-egoista\">\n<h2><strong>3. Esculpir patrones de lenguaje para un beneficio ego\u00edsta<\/strong><\/h2>\n<\/div><\/div>\n<p>El \u00faltimo comportamiento que contribuye al <em>black hat<\/em> en LLMO es esculpir patrones de lenguaje para influir en las respuestas de los LLM basadas en predicciones.<\/p>\n<p>Es similar a lo que los investigadores de Harvard llaman \u201cSecuencias de Texto Estrat\u00e9gicas\u201d en <a href=\"https:\/\/arxiv.org\/pdf\/2404.07981\">este estudio<\/a>. Se refiere al texto que se inyecta en p\u00e1ginas web con el objetivo espec\u00edfico de influir en menciones m\u00e1s favorables de marcas o productos en las respuestas de&nbsp;LLM.<\/p>\n<p>El texto en rojo a continuaci\u00f3n es un ejemplo de&nbsp;esto:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20460\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/11-an-example-from-harvard-researchers-who-injected-a.webp\" alt=\"Un ejemplo de investigadores de Harvard que inyectaron una secuencia de texto estrat\u00e9gica para promocionar un producto en particular m\u00e1s en las respuestas de los LLM.\" width=\"1036\" height=\"594\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/11-an-example-from-harvard-researchers-who-injected-a.webp 1036w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/11-an-example-from-harvard-researchers-who-injected-a-680x390.webp 680w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/11-an-example-from-harvard-researchers-who-injected-a-768x440.webp 768w\" sizes=\"auto, (max-width: 1036px) 100vw, 1036px\"><\/p>\n<p>El texto en rojo es un ejemplo de contenido inyectado en una p\u00e1gina de producto de comercio electr\u00f3nico para que aparezca como la mejor opci\u00f3n en respuestas relevantes de&nbsp;LLM.<\/p>\n<p>Aunque el estudio se centr\u00f3 en insertar cadenas de texto generadas por m\u00e1quina (no copias de marketing tradicionales o lenguaje natural), a\u00fan planteaba preocupaciones \u00e9ticas sobre la equidad, la manipulaci\u00f3n y la necesidad de salvaguardas porque estos patrones dise\u00f1ados explotan el mecanismo de predicci\u00f3n central de los&nbsp;LLM.<\/p>\n<p>La mayor parte de los consejos que veo de los SEO sobre c\u00f3mo obtener visibilidad en los LLM entra en esta categor\u00eda y se representa como un tipo de <a href=\"https:\/\/ahrefs.com\/seo\/glossary\/entity-based-seo\">SEO de entidades<\/a> o <a href=\"https:\/\/ahrefs.com\/blog\/semantic-seo\/\">SEO sem\u00e1ntico<\/a>.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20461\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/12-example-of-an-expert-seos-advice-for-llm-optimiza.webp\" alt=\"Ejemplo del consejo de un SEO experto para la optimizaci\u00f3n de LLM que tiende a ser &quot;black hat&quot; al manipular patrones de lenguaje de forma antinatural.\" width=\"1165\" height=\"350\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/12-example-of-an-expert-seos-advice-for-llm-optimiza.webp 1165w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/12-example-of-an-expert-seos-advice-for-llm-optimiza-680x204.webp 680w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/12-example-of-an-expert-seos-advice-for-llm-optimiza-768x231.webp 768w\" sizes=\"auto, (max-width: 1165px) 100vw, 1165px\"><\/p>\n<p>La frase reescrita ha perdido su significado original, no transmite la emoci\u00f3n o la experiencia divertida, pierde la opini\u00f3n del autor y cambia completamente el tono, haci\u00e9ndolo sonar m\u00e1s promocional.<\/p>\n<p>Peor a\u00fan, tampoco atrae a un lector humano.<\/p>\n<p>Este estilo de consejo lleva a los SEO a seleccionar y se\u00f1alizar informaci\u00f3n para los LLM con la esperanza de que se mencione en las respuestas. Y hasta cierto punto, funciona.<\/p>\n<p>Sin embargo, funciona (por ahora) porque estamos cambiando los patrones de lenguaje que los LLM est\u00e1n construidos para predecir. Los estamos haciendo antinaturales a prop\u00f3sito para complacer a un algoritmo o modelo en lugar de escribir para humanos\u2026 \u00bfesto tambi\u00e9n os suena a <em>d\u00e9j\u00e0 vu<\/em> del&nbsp;SEO?<\/p>\n<p>Otros consejos que siguen esta misma l\u00ednea de pensamiento incluyen:<\/p>\n<ul>\n<li><strong>Aumentar la co-ocurrencia de entidades<\/strong>: Como reescribir el contenido que rodea las menciones de tu marca para incluir temas o entidades espec\u00edficas con las que quieres estar fuertemente conectado.<\/li>\n<li><strong>Posicionamiento artificial de marca<\/strong>: Como conseguir que tu marca aparezca en m\u00e1s publicaciones de \u201clos mejores\u201d para mejorar la autoridad (incluso si creas estas publicaciones t\u00fa mismo en tu sitio o como publicaciones de invitado).<\/li>\n<li><strong>Contenido de preguntas y respuestas rico en entidades<\/strong>: Como convertir tu contenido en un formato de preguntas y respuestas resumible con muchas entidades a\u00f1adidas a la respuesta, en lugar de compartir historias atractivas, experiencias o an\u00e9cdotas.<\/li>\n<li><strong>Saturaci\u00f3n <\/strong><strong>autoridad <\/strong><strong>tem\u00e1tica<\/strong>: Como publicar una cantidad abrumadora de contenido en cada \u00e1ngulo posible de un tema para dominar las asociaciones de entidades.<\/li>\n<\/ul>\n<p>Estas t\u00e1cticas pueden influir en los LLM, pero tambi\u00e9n corren el riesgo de hacer que tu contenido sea m\u00e1s rob\u00f3tico, menos confiable y, en \u00faltima instancia, olvidable.<\/p>\n<p>A\u00fan as\u00ed, vale la pena entender c\u00f3mo perciben actualmente los LLM tu marca, especialmente si otros est\u00e1n dando forma a esa narrativa por&nbsp;ti.<\/p>\n<p>Ah\u00ed es donde entra en juego una herramienta como Brand Radar de Ahrefs. Te ayuda a ver con qu\u00e9 palabras clave, caracter\u00edsticas y grupos de temas est\u00e1 asociada tu marca en las respuestas de la&nbsp;IA.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20462\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/13-ahrefs-brand-radar-can-be-used-to-see-what-topics.webp\" alt=\"Brand Radar de Ahrefs se puede usar para ver qu\u00e9 temas y entidades asocian los LLM con tu marca.\" width=\"1079\" height=\"431\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/13-ahrefs-brand-radar-can-be-used-to-see-what-topics.webp 1079w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/13-ahrefs-brand-radar-can-be-used-to-see-what-topics-680x272.webp 680w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/13-ahrefs-brand-radar-can-be-used-to-see-what-topics-768x307.webp 768w\" sizes=\"auto, (max-width: 1079px) 100vw, 1079px\"><\/p>\n<p>Ese tipo de visi\u00f3n es menos sobre trucar el sistema y m\u00e1s sobre detectar puntos ciegos en c\u00f3mo las m\u00e1quinas ya te est\u00e1n representando.<\/p>\n<p>Si tomamos el camino de manipular los patrones del lenguaje, no nos dar\u00e1 los beneficios que queremos, y por varias razones.<\/p>\n<div class=\"post-nav-link clearfix\" id=\"section1\"><a class=\"subhead-anchor\" data-tip=\"tooltip__copielink\" rel=\"#section1\"><svg width=\"19\" height=\"19\" viewBox=\"0 0 14 14\" style><g fill=\"none\" fill-rule=\"evenodd\"><path d=\"M0 0h14v14H0z\" \/><path d=\"M7.45 9.887l-1.62 1.621c-.92.92-2.418.92-3.338 0a2.364 2.364 0 0 1 0-3.339l1.62-1.62-1.273-1.272-1.62 1.62a4.161 4.161 0 1 0 5.885 5.884l1.62-1.62L7.45 9.886zM5.527 5.135L7.17 3.492c.92-.92 2.418-.92 3.339 0 .92.92.92 2.418 0 3.339L8.866 8.473l1.272 1.273 1.644-1.643A4.161 4.161 0 1 0 5.897 2.22L4.254 3.863l1.272 1.272zm-.66 3.998a.749.749 0 0 1 0-1.06l2.208-2.206a.749.749 0 1 1 1.06 1.06L5.928 9.133a.75.75 0 0 1-1.061 0z\" style \/><\/g><\/svg><\/a><div class=\"link-text\" data-anchor=\"Por qu\u00e9 trucar el sistema con black hat en LLMO ser\u00e1 contraproducente\" data-section=\"trucar-sistema-black-hat-llmo-contraproducente\">\n<h2><strong>Por qu\u00e9 trucar el sistema con <\/strong><strong><em>black hat<\/em><\/strong><strong> en LLMO ser\u00e1 contraproducente<\/strong><\/h2>\n<\/div><\/div>\n<p>A diferencia del SEO, la visibilidad en los LLM no es un juego de suma cero. No es como un tira y afloja donde si una marca pierde posiciones, es porque otra tom\u00f3 su&nbsp;lugar.<\/p>\n<p>Todos podemos resultar perdedores en esta carrera si no tenemos cuidado.<\/p>\n<p>Los LLM no tienen que mencionar o enlazar a marcas (y a menudo no lo hacen). Esto se debe al proceso de pensamiento dominante cuando se trata de la creaci\u00f3n de contenido SEO. Algo as\u00ed&nbsp;como:<\/p>\n<ul>\n<li>Hacer keyword research<\/li>\n<li>Hacer ingenier\u00eda inversa de los art\u00edculos mejor posicionados<\/li>\n<li>Introducirlos en un optimizador <em>on-page<\/em><\/li>\n<li>Crear contenido similar, que coincida con el patr\u00f3n de entidades<\/li>\n<li>Publicar contenido que siga el patr\u00f3n de lo que ya est\u00e1 posicionando<\/li>\n<\/ul>\n<p>Lo que esto significa, en el panorama general, es que nuestro contenido se vuelve ignorado.<\/p>\n<p>\u00bfRecuerdas el proceso de limpieza por el que pasan los datos de entrenamiento de LLM? Uno de los elementos centrales fue la <a href=\"https:\/\/arxiv.org\/pdf\/2005.14165\">deduplicaci\u00f3n a nivel de documento<\/a>. Esto significa que los documentos que dicen lo mismo o no contribuyen con informaci\u00f3n nueva y significativa se eliminan de los datos de entrenamiento.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20463\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/14-openais-gpt-e-model-had-duplicated-documents-remo.webp\" alt=\"Brand Radar de Ahrefs se puede usar para ver qu\u00e9 temas y entidades asocian los LLM con tu marca.\" width=\"1042\" height=\"252\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/14-openais-gpt-e-model-had-duplicated-documents-remo.webp 1042w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/14-openais-gpt-e-model-had-duplicated-documents-remo-680x164.webp 680w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/14-openais-gpt-e-model-had-duplicated-documents-remo-768x186.webp 768w\" sizes=\"auto, (max-width: 1042px) 100vw, 1042px\"><\/p>\n<p>Otra forma de ver esto es a trav\u00e9s de la lente de la \u201csaturaci\u00f3n de entidades\u201d.<\/p>\n<p>En la investigaci\u00f3n cualitativa acad\u00e9mica, la saturaci\u00f3n de entidades se refiere al punto en el que recopilar m\u00e1s datos para una categor\u00eda particular de informaci\u00f3n no revela nuevos conocimientos. Esencialmente, el investigador ha llegado a un punto en el que ve informaci\u00f3n similar repetidamente.<\/p>\n<p>Ah\u00ed es cuando saben que su tema ha sido explorado a fondo y no est\u00e1n surgiendo nuevos patrones.<\/p>\n<p>Bueno, \u00bfadivina qu\u00e9?<\/p>\n<p>Nuestra f\u00f3rmula actual y las mejores pr\u00e1cticas de SEO para crear contenido \u201crico en entidades\u201d llevan a los LLM a este punto de saturaci\u00f3n m\u00e1s r\u00e1pido, haciendo una vez m\u00e1s que nuestro contenido sea ignorado.<\/p>\n<p>Tambi\u00e9n hace que nuestro contenido sea resumible como un meta-an\u00e1lisis. Si 100 publicaciones dicen lo mismo sobre un tema (en t\u00e9rminos de la esencia central de lo que comunican) y es informaci\u00f3n bastante gen\u00e9rica al estilo de Wikipedia, ninguna de ellas obtendr\u00e1 la&nbsp;cita.<\/p>\n<p>Hacer que nuestro contenido sea resumible no hace que obtener una menci\u00f3n o cita sea m\u00e1s f\u00e1cil. Y, sin embargo, es uno de los consejos m\u00e1s comunes que los principales SEO est\u00e1n compartiendo para obtener visibilidad en las respuestas de&nbsp;LLM.<\/p>\n<p>Entonces, \u00bfqu\u00e9 podemos hacer en su&nbsp;lugar?<\/p>\n<div class=\"post-nav-link clearfix\" id=\"section1\"><a class=\"subhead-anchor\" data-tip=\"tooltip__copielink\" rel=\"#section1\"><svg width=\"19\" height=\"19\" viewBox=\"0 0 14 14\" style><g fill=\"none\" fill-rule=\"evenodd\"><path d=\"M0 0h14v14H0z\" \/><path d=\"M7.45 9.887l-1.62 1.621c-.92.92-2.418.92-3.338 0a2.364 2.364 0 0 1 0-3.339l1.62-1.62-1.273-1.272-1.62 1.62a4.161 4.161 0 1 0 5.885 5.884l1.62-1.62L7.45 9.886zM5.527 5.135L7.17 3.492c.92-.92 2.418-.92 3.339 0 .92.92.92 2.418 0 3.339L8.866 8.473l1.272 1.273 1.644-1.643A4.161 4.161 0 1 0 5.897 2.22L4.254 3.863l1.272 1.272zm-.66 3.998a.749.749 0 0 1 0-1.06l2.208-2.206a.749.749 0 1 1 1.06 1.06L5.928 9.133a.75.75 0 0 1-1.061 0z\" style \/><\/g><\/svg><\/a><div class=\"link-text\" data-anchor=\"C\u00f3mo mejorar inteligentemente la visibilidad de tu marca en los LLM\" data-section=\"mejorar-inteligentemente-visibilidad-marca-llm\">\n<h2><strong>C\u00f3mo mejorar inteligentemente la visibilidad de tu marca en los&nbsp;LLM<\/strong><\/h2>\n<\/div><\/div>\n<p>Mi colega Louise ya ha creado una gu\u00eda incre\u00edble sobre c\u00f3mo optimizar tu marca y contenido para la visibilidad en los LLM (sin recurrir a t\u00e1cticas <em>black hat<\/em>).<\/p>\n<div class=\"further-reading\"><div class=\"reading-title\">Lecturas complementarias<\/div><div class=\"reading-content\">\n<ul>\n<li><a href=\"https:\/\/ahrefs.com\/blog\/es\/optimizacion-llm\/\">LLMO: 10 Maneras de integrar tu marca en las respuestas de la&nbsp;IA<\/a><\/li>\n<\/ul>\n<\/div><\/div>\n<p>En lugar de repetir el mismo consejo, quer\u00eda dejarte con un marco de trabajo sobre c\u00f3mo tomar decisiones inteligentes a medida que avanzamos y empiezas a ver surgir nuevas teor\u00edas y modas en el&nbsp;LLMO.<\/p>\n<p>Y s\u00ed, esto est\u00e1 aqu\u00ed para crear un efecto dram\u00e1tico, pero tambi\u00e9n porque hace las cosas muy simples, ayud\u00e1ndote a evitar las trampas del FOMO por el camino.<\/p>\n<p>Viene de las <a href=\"https:\/\/bonpote.com\/en\/the-5-basic-laws-of-human-stupidity\/\">5 Leyes B\u00e1sicas de la Estupidez Humana<\/a> del historiador econ\u00f3mico italiano, el Profesor Carlo Maria Cipolla.<\/p>\n<p>Adelante, r\u00edete un poco, luego presta atenci\u00f3n. Es importante.<\/p>\n<p>Seg\u00fan el Profesor Cipolla, la inteligencia se define como realizar una acci\u00f3n que te beneficia a ti <em>y<\/em> a otros simult\u00e1neamente\u2014b\u00e1sicamente, crear una situaci\u00f3n donde todos&nbsp;ganan.<\/p>\n<p>Est\u00e1 en oposici\u00f3n directa a la estupidez, que se define como una acci\u00f3n que crea p\u00e9rdidas tanto para ti <em>como<\/em> para&nbsp;otros:<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20464\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/15-the-five-basic-laws-of-human-stupidity-visualized.webp\" alt=\"Las cinco leyes b\u00e1sicas de la estupidez humana visualizadas como una matriz de 2x2.\" width=\"585\" height=\"596\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/15-the-five-basic-laws-of-human-stupidity-visualized.webp 585w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/15-the-five-basic-laws-of-human-stupidity-visualized-417x425.webp 417w\" sizes=\"auto, (max-width: 585px) 100vw, 585px\"><\/p>\n<p>En todos los casos, las pr\u00e1cticas <em>black hat<\/em> se sit\u00faan directamente en los cuadrantes inferior izquierdo e inferior derecho.<\/p>\n<p>Los bandidos del SEO, como me gusta llamarlos, son las personas que utilizaron t\u00e1cticas de optimizaci\u00f3n manipuladoras por razones ego\u00edstas (beneficios para uno mismo)\u2026 y procedieron a arruinar Internet como resultado (p\u00e9rdidas para&nbsp;otros).<\/p>\n<p>Por lo tanto, las reglas del SEO y del LLMO en adelante son simples.<\/p>\n<ul>\n<li>No seas est\u00fapido.<\/li>\n<li>No seas un bandido.<\/li>\n<li>Optimiza inteligentemente.<\/li>\n<\/ul>\n<p>La optimizaci\u00f3n inteligente se reduce a centrarse en tu marca y asegurarte de que est\u00e9 representada con precisi\u00f3n en las respuestas de los&nbsp;LLM.<\/p>\n<p>Se trata de usar herramientas como <a href=\"https:\/\/ahrefs.com\/es\/ai-content-helper\/\" data-ahr=\"https:\/\/ahrefs.com\/blog\/es\/ai-content-helper\/\">AI Content Helper<\/a> que est\u00e1n espec\u00edficamente dise\u00f1adas para elevar la cobertura de tus temas, en lugar de centrarse en meter m\u00e1s entidades a la fuerza. (La puntuaci\u00f3n SEO solo mejora a medida que cubres los temas sugeridos en detalle, no cuando metes m\u00e1s palabras).<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-20465\" src=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/16-ahrefs-ai-content-helper-helps-users-deepen-their.webp\" alt=\"El AI Content Helper de Ahrefs ayuda a los usuarios a profundizar en la cobertura de sus temas en lugar de fomentar pr\u00e1cticas &quot;black hat&quot; como el relleno de palabras clave o entidades.\" width=\"1041\" height=\"826\" srcset=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/16-ahrefs-ai-content-helper-helps-users-deepen-their.webp 1041w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/16-ahrefs-ai-content-helper-helps-users-deepen-their-536x425.webp 536w, https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/16-ahrefs-ai-content-helper-helps-users-deepen-their-768x609.webp 768w\" sizes=\"auto, (max-width: 1041px) 100vw, 1041px\"><\/p>\n<p>Pero, por encima de todo, se trata de contribuir a una mejor internet centr\u00e1ndose en las personas a las que quieres llegar y optimizando para ellas, no para algoritmos o modelos de lenguaje.<\/p>\n<h2><strong>Reflexiones finales<\/strong><\/h2>\n<p>El LLMO a\u00fan est\u00e1 en sus primeros d\u00edas, pero los patrones ya son familiares, y tambi\u00e9n lo son los riesgos.<\/p>\n<p>Hemos visto lo que sucede cuando las t\u00e1cticas a corto plazo no se controlan. Cuando el SEO se convirti\u00f3 en una carrera hacia el abismo, perdimos confianza, calidad y creatividad. No hagamos lo mismo con los&nbsp;LLM.<\/p>\n<p>Esta vez, tenemos la oportunidad de hacerlo bien. Eso significa:<\/p>\n<ul>\n<li>No manipular los patrones de predicci\u00f3n; en su lugar, dar forma a la presencia de tu&nbsp;marca.<\/li>\n<li>No perseguir la saturaci\u00f3n de entidades, sino crear contenido que los humanos quieran leer.<\/li>\n<li>No escribir para ser resumido; m\u00e1s bien, escribir para impactar a tu audiencia.<\/li>\n<\/ul>\n<p>Porque si tu marca solo aparece en los LLM cuando est\u00e1 despojada de personalidad, \u00bfes realmente una victoria?<\/p>\n<p>\u00bfTienes preguntas? <a href=\"https:\/\/twitter.com\/AhrefsES\">Estamos en X<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ah\u00ed es donde estamos con la optimizaci\u00f3n para la visibilidad en los LLM (LLMO), y necesitamos m\u00e1s expertos que denuncien este comportamiento en nuestra industria, como Lily Ray ha hecho en esta publicaci\u00f3n: Si est\u00e1s enga\u00f1ando, esculpiendo o manipulando un<span class=\"ellipsis\">\u2026<\/span><\/p>\n<div class=\"read-more\">Leer m\u00e1s \u203a<\/div>\n<p><!-- end of .read-more --><\/p>\n","protected":false},"author":54,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"wp_typography_post_enhancements_disabled":false,"footnotes":""},"categories":[6],"tags":[],"coauthors":[338],"class_list":["post-20445","post","type-post","status-publish","format-standard","hentry","category-general-seo","odd"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>El LLMO est\u00e1 en su era &quot;Black Hat&quot;<\/title>\n<meta name=\"description\" content=\"Cuando el SEO se convirti\u00f3 en una carrera hacia el fondo, perdimos confianza, calidad y creatividad. No lo hagamos de nuevo con los LLM.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"El LLMO est\u00e1 en su era &quot;Black Hat&quot;\" \/>\n<meta property=\"og:description\" content=\"Cuando el SEO se convirti\u00f3 en una carrera hacia el fondo, perdimos confianza, calidad y creatividad. No lo hagamos de nuevo con los LLM.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/\" \/>\n<meta property=\"og:site_name\" content=\"Blog de SEO de Ahrefs\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/Ahrefs\" \/>\n<meta property=\"article:published_time\" content=\"2025-05-24T05:39:27+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-08-28T13:49:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"966\" \/>\n\t<meta property=\"og:image:height\" content=\"683\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Despina Gavoyannis\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@ahrefs\" \/>\n<meta name=\"twitter:site\" content=\"@ahrefs\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/\"},\"author\":{\"name\":\"Despina Gavoyannis\",\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/#\\\/schema\\\/person\\\/007b81630253177f89dcca8a8bdefb76\"},\"headline\":\"El LLMO est\u00e1 en su era \u201cBlack Hat\u201d\",\"datePublished\":\"2025-05-24T05:39:27+00:00\",\"dateModified\":\"2025-08-28T13:49:52+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/\"},\"wordCount\":3912,\"image\":{\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/wp-content\\\/uploads\\\/2025\\\/05\\\/el-llmo-esta-en-su-era-by-despina-gavoyannis-general-seo.jpg\",\"articleSection\":[\"SEO general\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/\",\"url\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/\",\"name\":\"El LLMO est\u00e1 en su era \\\"Black Hat\\\"\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/wp-content\\\/uploads\\\/2025\\\/05\\\/1-lily-rays-linkedin-post-highlighting-the-quote.webp\",\"datePublished\":\"2025-05-24T05:39:27+00:00\",\"dateModified\":\"2025-08-28T13:49:52+00:00\",\"author\":{\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/#\\\/schema\\\/person\\\/007b81630253177f89dcca8a8bdefb76\"},\"description\":\"Cuando el SEO se convirti\u00f3 en una carrera hacia el fondo, perdimos confianza, calidad y creatividad. No lo hagamos de nuevo con los LLM.\",\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/llmo-black-hat\\\/#primaryimage\",\"url\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/wp-content\\\/uploads\\\/2025\\\/05\\\/1-lily-rays-linkedin-post-highlighting-the-quote.webp\",\"contentUrl\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/wp-content\\\/uploads\\\/2025\\\/05\\\/1-lily-rays-linkedin-post-highlighting-the-quote.webp\",\"width\":966,\"height\":683,\"caption\":\"Publicaci\u00f3n de Lily Ray en LinkedIn destacando la cita: \\\"\u00abOptimizar las respuestas\u00bb es ahora el nombre del juego del SEO, y ya estoy viendo a much\u00edsimas empresas y SEOs empezar a hacerlo de formas turbias y cuestionables\\\".\"},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/#website\",\"url\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/\",\"name\":\"Blog de SEO de Ahrefs\",\"description\":\"Estrategias de link building y consejos de posicionamiento SEO\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/#\\\/schema\\\/person\\\/007b81630253177f89dcca8a8bdefb76\",\"name\":\"Despina Gavoyannis\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/wp-content\\\/uploads\\\/2025\\\/01\\\/Despina-Gavoyannis-scaled-1.jpg5a8b0b7972dae09b668aabfe8d3921c1\",\"url\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/wp-content\\\/uploads\\\/2025\\\/01\\\/Despina-Gavoyannis-scaled-1.jpg\",\"contentUrl\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/wp-content\\\/uploads\\\/2025\\\/01\\\/Despina-Gavoyannis-scaled-1.jpg\",\"caption\":\"Despina Gavoyannis\"},\"description\":\"Despina es una Consultora SEO Senior con m\u00e1s de 8 a\u00f1os de experiencia en el crecimiento B2B, ecommerce, SaaS y marcas nacionales. Es una persona optimista y cada d\u00eda se centra en disfrutar los aspectos positivos de la vida.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/despina-gavoyannis\\\/\"],\"url\":\"https:\\\/\\\/ahrefs.com\\\/blog\\\/es\\\/author\\\/despina-gavoyannis\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"El LLMO est\u00e1 en su era \"Black Hat\"","description":"Cuando el SEO se convirti\u00f3 en una carrera hacia el fondo, perdimos confianza, calidad y creatividad. No lo hagamos de nuevo con los LLM.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/","og_locale":"es_ES","og_type":"article","og_title":"El LLMO est\u00e1 en su era \"Black Hat\"","og_description":"Cuando el SEO se convirti\u00f3 en una carrera hacia el fondo, perdimos confianza, calidad y creatividad. No lo hagamos de nuevo con los LLM.","og_url":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/","og_site_name":"Blog de SEO de Ahrefs","article_publisher":"https:\/\/www.facebook.com\/Ahrefs","article_published_time":"2025-05-24T05:39:27+00:00","article_modified_time":"2025-08-28T13:49:52+00:00","og_image":[{"width":966,"height":683,"url":"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote.webp","type":"image\/webp"}],"author":"Despina Gavoyannis","twitter_card":"summary_large_image","twitter_creator":"@ahrefs","twitter_site":"@ahrefs","schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/#article","isPartOf":{"@id":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/"},"author":{"name":"Despina Gavoyannis","@id":"https:\/\/ahrefs.com\/blog\/es\/#\/schema\/person\/007b81630253177f89dcca8a8bdefb76"},"headline":"El LLMO est\u00e1 en su era \u201cBlack Hat\u201d","datePublished":"2025-05-24T05:39:27+00:00","dateModified":"2025-08-28T13:49:52+00:00","mainEntityOfPage":{"@id":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/"},"wordCount":3912,"image":{"@id":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/#primaryimage"},"thumbnailUrl":"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/el-llmo-esta-en-su-era-by-despina-gavoyannis-general-seo.jpg","articleSection":["SEO general"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/","url":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/","name":"El LLMO est\u00e1 en su era \"Black Hat\"","isPartOf":{"@id":"https:\/\/ahrefs.com\/blog\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/#primaryimage"},"image":{"@id":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/#primaryimage"},"thumbnailUrl":"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote.webp","datePublished":"2025-05-24T05:39:27+00:00","dateModified":"2025-08-28T13:49:52+00:00","author":{"@id":"https:\/\/ahrefs.com\/blog\/es\/#\/schema\/person\/007b81630253177f89dcca8a8bdefb76"},"description":"Cuando el SEO se convirti\u00f3 en una carrera hacia el fondo, perdimos confianza, calidad y creatividad. No lo hagamos de nuevo con los LLM.","inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/ahrefs.com\/blog\/es\/llmo-black-hat\/#primaryimage","url":"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote.webp","contentUrl":"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/05\/1-lily-rays-linkedin-post-highlighting-the-quote.webp","width":966,"height":683,"caption":"Publicaci\u00f3n de Lily Ray en LinkedIn destacando la cita: \"\u00abOptimizar las respuestas\u00bb es ahora el nombre del juego del SEO, y ya estoy viendo a much\u00edsimas empresas y SEOs empezar a hacerlo de formas turbias y cuestionables\"."},{"@type":"WebSite","@id":"https:\/\/ahrefs.com\/blog\/es\/#website","url":"https:\/\/ahrefs.com\/blog\/es\/","name":"Blog de SEO de Ahrefs","description":"Estrategias de link building y consejos de posicionamiento SEO","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/ahrefs.com\/blog\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/ahrefs.com\/blog\/es\/#\/schema\/person\/007b81630253177f89dcca8a8bdefb76","name":"Despina Gavoyannis","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/01\/Despina-Gavoyannis-scaled-1.jpg5a8b0b7972dae09b668aabfe8d3921c1","url":"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/01\/Despina-Gavoyannis-scaled-1.jpg","contentUrl":"https:\/\/ahrefs.com\/blog\/es\/wp-content\/uploads\/2025\/01\/Despina-Gavoyannis-scaled-1.jpg","caption":"Despina Gavoyannis"},"description":"Despina es una Consultora SEO Senior con m\u00e1s de 8 a\u00f1os de experiencia en el crecimiento B2B, ecommerce, SaaS y marcas nacionales. Es una persona optimista y cada d\u00eda se centra en disfrutar los aspectos positivos de la vida.","sameAs":["https:\/\/www.linkedin.com\/in\/despina-gavoyannis\/"],"url":"https:\/\/ahrefs.com\/blog\/es\/author\/despina-gavoyannis\/"}]}},"_links":{"self":[{"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/posts\/20445","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/users\/54"}],"replies":[{"embeddable":true,"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/comments?post=20445"}],"version-history":[{"count":1,"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/posts\/20445\/revisions"}],"predecessor-version":[{"id":22194,"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/posts\/20445\/revisions\/22194"}],"wp:attachment":[{"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/media?parent=20445"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/categories?post=20445"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/tags?post=20445"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/ahrefs.com\/blog\/es\/wp-json\/wp\/v2\/coauthors?post=20445"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}