Esta entrada ha sido escrita por Juan José Zubeldia, ex-vocal del Consejo de la CMT (1996-2002) y miembro del comité científico de Wikitel.
Cuando se llevaban varios años de debate sobre la Neutralidad de la Red, en 2009 comenzó a extenderse un nuevo concepto referente a si las búsquedas y otros servicios también habrían de ser regulados para que fuesen neutros: La Neutralidad de lás Búsquedas.
Para comprender este debate conviene comenzar estudiando las diferencias entre ambos conceptos.
La Neutralidad de la Red está muy centrada en que los proveedores de acceso, que casi siempre son únicos o muy pocos, puedan discriminar el tráfico de los usuarios o exigir que los proveedores de información les paguen por entregar el contenido en mejores condiciones que la de otros competidores. Mientras que la Neutralidad de las Búsquedas tendría que ver con que las empresas de búsquedas -que son varias y teóricamente pueden ser muchas, puesto que las barreras de entrada a esta actividad son bajas- no discriminen selectivamente la relevancia de sitios web de sus competidores o de terceras empresas que tengan mala relación con ellos o cuyo contenido les incomode, ni den un Page Rank preferente a los productos o servicios de empresas en las que tengan intereses.
La primera, la Neutralidad de la Red, obedece a una limitación geográfica y de acceso. La segunda, la Neutralidad de las Busquedas, no tiene esa limitación, el mercado de Internet está abierto a la competencia y los usuarios son libres de emplear el buscador que deseen. La razón por la que un buscador sea dominante es porque los usuarios lo prefieren. Si el buscador ofreciese búsquedas incompletas o sesgadas, muy posiblemente los usuarios dejarían de usarlo.
Realmente el problema que subyace tras la Neutralidad de las Búsquedas no se refiere a que los usuarios puedan cambiar de buscador, puesto que como se acaba de decir pueden hacerlo con plena libertad; más bien tiene que ver con que la relevancia de las páginas web no esté manipulada manual o artificialmente. En esencia se trata que los buscadores, o las empresas correspondientes, no puedan imponer contraprestaciones ocultas, es decir que discriminen subrepticiamente a determinadas páginas web, para mejorar o empeorar su posicionamiento en las búsquedas.
Falta de neutralidad
Se pueden dar varios tipos de falta de neutralidad, citaremos al menos a) las efectuadas por los buscadores, b) las ofertas conexas a la búsqueda y c) las que realizan los propietarios de las páginas web al aplicar técnicas SEO (un eufemismo para definir la «optimización» del Page Rank).
a) Neutralidad del buscador
A fines del verano de 2009 el matrimonio inglés Adan y Shivaun Raff, que años antes habían creado un buscador/comparador de precios: Foundem, lanzaron el sitio web searchneutrality.org. Según el Sr. Raff, Google había prácticamente eliminado a Foundem de los resultados de las búsquedas e incluso lo había penalizado en AdWords, atajando la posibilidad de anunciarse en el sistema publicitario de Google. Siempre según la versión de Raff, las búsquedas deYahoo y Bing sí ofrecían resultados sobre su servicio, por lo que Raff alegaba que Google le estaba discriminando como competidor.
Tras unos años de debate entre ambas empresas, www.foundem.co.uk ahora aparece en primer lugar cuando se teclea la marca en el buscador de Google. No obstante, el 27 de diciembre de 2009 el Sr. Raff explicó su caso en el The New York Times solicitando que hubiese mayor neutralidad general y posteriormente presentó reclamaciones ante la Comisión Europea y la FCC en las que acusa a Google de ser «una amenaza inmediata a la competencia y la innovación«. Raff sostenía que si los principios de «no discriminación» y «transparencia» se aplican en el acceso, también habría que exigirlos a las compañías dominantes en servicios, como Google. Este asunto no fue algo menor para Google, quien habló de este conflicto en su blog para insistir en su compromiso con el fair play y la neutralidad.
Por lo visto, el caso de Foundem no era tanto una cuestión de discriminación o falta de neutralidad, sino más bien una mala práctica de técnicas SEO que proporcionaban un Page Rank muy bajo. No obstante, sirve de ejemplo para ilustrar cómo pueden darse situaciones discriminatorias, cómo diferentes buscadores valoran de modo distinto una misma página y como un buscador puede llegar a penalizar a determinadas páginas por violar el fair play.
b) Integración de ofertas conexas
En los resultados de las búsquedas en Google, si usted teclea un asunto, aparecerán anuncios relacionados con dicha materia, algo que también sucede en Bing y Yahoo. No obstante, Raff señalaba que la ventaja competitiva de Google en el mercado de las búsquedas es tan aplastante que simplemente integrando el resto de servicios (maps, vídeos…) en las búsquedas y dándoles prioridad en los primeros puestos del resultado se genera un tráfico que sus competidores no pueden igualar.
c) Uso de técnicas SEO
Los proveedores de información también pueden manipular su información para salir mejor parados en el Page Rank.
En ocasiones hacen algo tan elemental como pagar a compañías especializadas para que generen artificialmente enlaces y referencias a las páginas que se quiere promover. Pero en muchos otros casos se emplean técnicas de descripción de las páginas cuyo único objetivo es optimizar el posicionamiento en los buscadores. En situaciones más marginales se crean «páginas falsas» con enlaces a las páginas de interés, con el único propósito de mejorar elPage Rank de estas.
Como ejemplo muy simple, se suele citar cómo algunos sitios web manipulan los metatags propios con términos que parecen ser atractivos para los buscadores, aunque no tengan nada que ver con el contenido de la página o del servicio, (referencias a fútbol, pornografía y sexo o a marcas comerciales muy notorias).
También hay que destacar los avances en los buscadores para reconocer y evitar este tipo de manipulación de los proveedores de información. En casos extremos los buscadores pueden llegar a penalizar el sitio web que incumple, suprimiendo toda mención a él.
Fundamentos del problema
La neutralidad de las búsquedas no es algo claro y nítido puesto que, por definición, los algoritmos de búsqueda de páginas no pueden ser neutros «per se» en el sentido de que no tengan diferencias,[9] más bien al contrario, lo que hacen es valorar cada página de información siguiendo unos procedimientos secretos que presentan el resultado al usuario en orden de preferencia, conforme sea el valor de relevancia, o Page Rank, obtenido. Toda la gracia y éxito de los buscadores reside en lo bien que interpreten la solicitud del usuario, califiquen la relevancia de las páginas que dicha persona quiere buscar, y tarden poco en presentarlas, de ahí que sus algoritmos sean secretos bien guardados.
Para Nate Anderson, autor de un artículo sobre Search Neutrality y editor jefe de Ars Technica, algunos de los críticos con la Neutralidad de las Búsquedas, quiseran conocer mejor como funcionan dichos algoritmos y en qué basan la calificación de relevancia o, al menos, bajo qué condiciones alguna página web puede quedar penalizada y qué habría que hacer para superar la penalización. Para otros el problema principal son los servicios u ofertas combinados, que resultan imposibles de replicar. Y finalmente, hay operadores que no quieren que empresas como Google den ventaja alguna a la página que queda en primera posición, si a cambio no obtienen un beneficio económico por facilitar el acceso.
La tesis de Odlyzko
Nate Anderson también recuerda que en in 2008, el profesor de la University of Minnesota Andrew Odlyzko, publico un artículo clave sobre este asunto: «Network neutrality, search neutrality, and the never-ending conflict between efficiency and fairness in markets».
La tesis sobre la que gira el paper de Odlyzko es que “en el sector de las telecomunicaciones, dadas las tendencias actuales de la demanda y las fuentes de innovación, parece que el óptimo social consiste en no dar preferencia a lo que piden los operadores y, en su lugar, estimular que otros innoven en la red haciendo que esta sea neutra. Teniendo presente que con ello se abre la puerta a que empresas, como Google, que surjen como ganadores en este terreno abierto y competitivo sean los nuevos puntos de conflicto. Por tanto parece prudente prepararse a vigilar qué ocurre y estar dispuestos a intervenir imponiéndoles condiciones de neutralidad cuando sea preciso.” “ (…)en esta batalla de la neutralidad de la red que libran Google y AT&T, es posible argumentar que el mejor resultado es que Google gane, pero entonces la sociedad debería preparase para estar dispuesta a regular a Google”
Conclusión
Si las redes son neutras, Internet será un gran mercado abierto y competitivo. Por tanto, en mercados abiertos y competitivos los problemas derivados de que falte neutralidad en las búsquedas no se suelen resolver con una regulación sectorial ex-ante y muy bien se podrían remitir a que se traten como casos del Derecho de la Competencia o de Protección de los Consumidores, si bien hay autores europeos, como el profesor Nico van Eijk, que sostienen lo adecuado que sería darles un tratamiento convergente, donde se defina cual es el mercado, se valore el poder significativo y las dificultades de acceso.
A la vista de lo expuesto se puede concluir al menos que para que las búsquedas sean neutras, tanto los elementos de exploración crawlers o spiders como los algoritmos de búsqueda han de ser automáticos y neutros, de modo que el trato relativo de unas páginas con respecto a las de otros sitios web no sea discriminatorio y cada una obtenga su respectivo Page Rank por méritos propios, libre de manipulaciones, artefactos o sesgos que afecten a la competencia entre páginas web.
En Wikitel se ha abierto un artículo sobre la neutralidad de las búsquedas que recojerá las novedades que puedan darse en un futuro:
En el blog, sobre Neutralidad de la Red:
-
28 Abril 2010
-
30 Diciembre 2009
-
07 Mayo 2009
-
02 Abril 2009
-
30 Marzo 2009
Trabajos académicos (fuente Wikitel):
- Shaping the Web: Why the Politics of Search Engines Matters, L. Introna and H. Nissenbaum, 2000
- Regulating Search Engines: Taking Stock and Looking Ahead, Urs Gasser, Associate Professor of Law, en St. Gallen y Harvard. 2006
- «Network neutrality, search neutrality, and the never-ending conflict between efficiency and fairness in markets» (PDF) Andrew Odlyzko , the University of Minnesota, 2008, updated in 2009.
- A Converged Regulatory Model for Search Engines?, Nico van Eijk. Magazine of the Society for Computers and Law, 2009-6,
- * Search Engines, the New bottleneck for Content Access, Nico van Eijk in: B. Preissl, J. Haucap & P. Curwen (eds.), Telecommunication Markets, Drivers and Impediments, London: Springer, 2009, p. 141-157.
- Search engines: Seek and ye shall find? The position of search engines in law’, Nico van Eijk. IRIS plus. 15.02.2006
- The Next Frontier for Network NeutralityPhil Weiser, University of Colorado Law School, 2008.
Artículos de opinión (fuente Wikitel)
- Companies Ask Courts, Regulators To Restrain Google To Compensate For Own Competitive Failures, Greg Sterling, 25.02.2010
- Net Neutrality, Slippery Slopes & High-Tech Mutually Assured Destruction, Berin Szoka & Adam Thierer, Progress & Freedom Foundation, 10.2009.
- Taking net neutrality seriously Chris T. Marsden 30.04.2010.
- Search neutrality? How Google became a «neutrality» target, By Nate Anderson, Ars Technica, 29.04.2010
- Google and the Problem With ‘Net Neutrality’ B. Swanson, The Wall Street Journal, 4.10.2009
Artículos relacionados (fuente Wikitel)
- Antecedentes sobre Neutralidad de la Red
- Gestión del tráfico en Internet
- Neutralidad de la Red
- Neutralidad tecnológica
- Web 2.0
Muy buen artículo. Sin embargo creo que las barreras de entrada en el caso de los buscadores son también muy elevadas, Google tiene una imagen de marca tan fuerte que la entrada de competidores es francamente difícil.
Esto se contrapone al debate de la neutralidad de la red, cuando los interesados en defender la idea de neutralidad de la red son precisamente los buscadores y los creadores de contenidos, con fuertes intereses económicos.
Coincido contigo en que las barreras de entrada son altas. Posiblemente continúen siéndolo si los buscadores son neutros y eficaces. Pero como pierdan esos valores, disminuirán las barreras.
La neutralidad de la red es otro debate. Si bien en ambos está los mismos protagonistas y mismos afectados.
Creo que con usuarios bien informados y reguladores bien preparados se puede conseguir que ambas cuestiones, y otras más o menos relacionadas con ellas, sean neutras y no perjudiquen el interés general.
Te agradezco el interés y te animo a que mejores los artículos en Wikitel
[…] This post was mentioned on Twitter by CMT, Jorge Hernández, ANEI, Beatriz García, Joshua Llorach and others. Joshua Llorach said: De la ‘neutralidad de la red’ a la ‘neutralidad de las búsquedas’ http://bit.ly/cNLBGh […]
La solución me parece a mí más compleja de lo que se explica en el artículo, la neutralidad en los buscadores no se va a conjugar nada bien con la defensa que estos hacen contra el SEO. Tal y como se apunta en el apartado c) los administradores de páginas webs que usan SEO se aprovechan de las reglas para escalar puestos en el listado que un buscador ofrece a quien realiza allí una consulta, pero donde está el límite entre optimizar(correcto) una web para que el bot del buscador de turno no se vuelva loco e indexe de forma incorrecta la página y el abuso(incorrecto). Porque si la neutralidad es que el buscador ofrezca resultados sin preguntarse si es relevante para la búsqueda el abuso está servido y nadie usará ese buscador.
Leo con asiduidad este blog y este es el primer post en mucho tiempo que me ha resultado difícil de leer, poco ilustrativo y con fallos de redacción.
No creo que sea adecuado describir SEO (Search Engine Optimization) como un eufemismo para definir la “optimización” del Page Rank; ya que la definición y traducción de sus siglas es probablemente más ‘neutra’ e ilustrativa.
PD.En «La tesis de Odlyzko» he encontrado varias faltas de traducción y de ortografía que estaría bien revisar(¿surjen?).
Si profundizamos en las técnicas de SEO, conviene decir que el PageRank es solo un factor más para el posicionamiento de una página entre los resultados de una búsqueda. La estructura de las páginas, los metadatos (no sólo tags, también descripción y título), el contenido, las palabras que enlazan una web y la correspondencia entre estos otros factores y los términos de búsqueda, son otro factor importante.
Este artículo considera y divulga el PageRank como si fuera una panacea y lo encuentro alejado de la realidad. El PageRank es la consideración que tiene Google sobre esa página. Sin embargo, una página puede estar mejor posicionada que otra para unos términos de búsqueda concretos teniendo menor PageRank.
Ya que se le ha dado tanta coba a este término, hubiese añadido una curiosidad para el lector: se llama Page Rank en honor a su inventor ‘Larry Page’; aunque juega con lo que su traducción nos pueda inducir (Ránking de páginas).
Si creéis que una palabra es tan poco conocida que es necesario enlazarla a un diccionario (subrepticiamente), probablemente no sea la más adecuada en una tarea de divulgación. Los enlaces y referencias los soléis utilizar de forma interesante y útil. En este post no creo que sea así.
Igúalmente, aprecio vuestra labor y espero que en los próximos posts retoméis vuestra línea.
Carlos,
Intentaremos mejorar. Gracias por tus por tus aportaciones en un tema donde somos tan profanos como el SEO. Desconocíamos lo de Larry Page, muy interesante.
Un saludo
Carlos, con lo sencillo que resulta en un wiki corregir lo que crees que no está bien. ¡Anímate y hazlo!
Lo de centrar el concepto que quería explicar en el término «Page Rank» es por no resultar pesado desarrollando en un artículo de un Blog de divulgación qué es el SEO. ¡Un experto como Avinash Kaushik ha necesitado 442 páginas de un libro! (Web Analytics 2.0).
El Page Rank es la tecnología de Google para valorar el posicionamiento de las páginas. Según ellos, para calcular el Page Rank han de resolver una ecuación que contiene más de 500 millones de variables y 2.000 millones de términos. (ver la Nota 2 del artículo de Wikitel)
¡Como para explicarlo en este blog o ponerlo en unas frases!
Solamente Wikipedia y Carlos afirman que ese término tenga relación con Larry Page. Google nunca lo dijo.
Para gustos los colores: a mi me ha encantado esta entrada del blog. Trata un tema interesante que nunca había oído (la neutralidad de los buscadores), y me ha dado la impresión de estar suficientemente documentado.
Animo a quien ha escrito este texto a que vuelva a hacerlo cada vez que tenga algo interesante que contar.
Tienes razón, Abasota. Releo mi comentario y siento haber sido poco constructivo en mis consideraciones.
Al ser este blog divulgativo y estar asociado a una entidad de referencia en la materia, me pareció que el post dejaba poco definido el límite entre optimización (bueno) y manipulación (malo) de contenidos para buscadores.
Creo que has dado una aproximación aparentemente poco consciente de la realidad de estos procesos (quizás más teórica que práctica). Y sobre todo, me quedo con la percepción de que la neutralidad de los buscadores depende de los generadores de contenidos y no de los motores de búsqueda en sí… (Totalmente en desacuerdo).
Mis disculpas por las formas y mi agradecimiento por sacar el debate a la palestra y difundir tu aproximación al tema a través de este medio.
Gracias a ti, Carlos, por participar en el debate 🙂
Un saludo
El artículo no es fácil de leer, pero es que profundiza mucho mas de lo habitual y creo que aporta muchas cosas interesantes.
También pienso que se centra demasiado en la neutralidad de los buscadores, espero que añada un segundo post ampliando información sobre la neutralidad de los operadores y su interes en cobrar por acceder a contenidos de forma «premium», o poner sus propias páginas de error con publicidad(pe page 404) o restringir el acceso a ciertos contenidos (p2p, voiP…)
Gracias por este Blog, es un aire fresco dentro de la complejidad de la CMT donde no siempre se entienden sus decisiones.
Hola Macia,
Hemos tratado la neutralidad de la red (operadores) en el blog:
http://blogcmt.com/2009/03/30/neutralidad-de-la-red-i-la-pelota-esta-en-bruselas/
http://blogcmt.com/2009/04/02/neutralidad-de-la-red-ii-la-vision-de-los-protagonistas/
Aunque estamos seguros que seguiremos hablando de ella, ya que es uno de los hot topics del año, sin duda 😉
También en Wikitel existe desde hace tiempo un extenso documento sobre net neutrality
http://es.wikitel.info/wiki/Neutralidad_de_la_red
Tienes razón en que este último artículo está centrado en la ‘search neutrality’, aunque ese era precisamente el objetivo.
Gracias por participar.
Un saludo
Muchas gracias por la respuesta, uno de esos post ya lo había visto, pero el otro no.
Estimado Macià, el artículo de Wikitel http://es.wikitel.info/wiki/Neutralidad_de_las_B%C3%BAsquedas está actualizándose y ya trata algo sobre los operadores.
Gracias Abasota!
Carlos, dices: «Y sobre todo, me quedo con la percepción de que la neutralidad de los buscadores depende de los generadores de contenidos y no de los motores de búsqueda en sí… (Totalmente en desacuerdo).»
Se ve que yo me expliqué mal o tu percibiste lo que no dije. Por favor, no te quedes con esa idea. Si te parece puedes leer de nuevo el artículo en Wikitel.
Agudísimo artículo de D. Juan José, que como él mismo dice está abierto a actualización constructiva en Wikitel. En cuanto al poder de la marca es innegable, y la fueza que el conformismo tiene en el usuario mayoritario de Internet. «Uso Google porque su página es la que tengo establecida como página principal». Pero no nos engañemos; a la hora de hacer una búsqueda exhaustiva sobre una información, persona, etc., Google gana por goleada a sus directos competidores.
[…] el experto Juan Varela en su columna de Estrella Digital, echar por tierra la más que necesaria neutralidad de la red. Una neutralidad que se antoja una utopía en este nuevo ecosistema, en el que el poder lo están […]
[…] relacionado con la tan traída y llevada “neutralidad de la red”, en su versión “neutralidad de las búsquedas y derecho a enlazar”. Si algo existe en el ciberespacio, ¿por qué no hacerse eco de ello? […]