Inicio » Notas ThinkEPI 2012 » Prospectiva de la Web semántica: divergencia tecnológica y creación de mercados Linked Data

Prospectiva de la Web semántica: divergencia tecnológica y creación de mercados Linked Data

Cómo citar este artículo:
Pastor-Sánchez, Juan-Antonio. “Prospectiva de la web semántica: divergencia tecnológica y creación de mercados linked data“. Anuario ThinkEPI, 2012, v. 6, pp. 269-275.

Prospectiva de la web semántica: divergencia tecnológica y creación de mercados linked data

El progresivo despliegue de la Web semántica en los últimos años está produciendo nuevos servicios y aproximaciones de publicación de datos en la Web. Buena muestra de ello son las soluciones planteadas al amparo de la corriente Linked Open Data, la progresiva adopción de RDF y de servicios web basados en Sparql Endpoint. Esta nota se centra en el análisis de tres de estas iniciativas: Schema.org, Freebase y Kasabi, orientadas a multiplicar la cantidad de pequeños editores de contenidos semánticos, la larga cola de la Web semántica.

Por regla general, la elaboración y publicación de estos datos se realiza por parte de especialistas e instituciones, dentro del ámbito de proyectos específicos de gran envergadura o sobre temáticas muy concretas. En este sentido, es muy relevante el documento sobre vocabularios y conjuntos de datos enlazados bibliotecarios (Isaac et al., 2011)1, el catálogo “The Datahub” de CKAN2 o el “Opening up government” del Reino Unido3. El control por parte de una autoridad o colectivo, más o menos reducido, de los procesos de diseño y mantenimiento de estos conjuntos de datos forma parte de la propia naturaleza de estos recursos.

Esta particularidad no representa un rasgo negativo sino todo lo contrario, ya que existe un interés creciente por parte de organismos y empresas para publicar datos utilizando técnicas que incrementen la interoperabilidad de los mismos (Heath y Bizer, 2011), con vistas a su aplicación y explotación en futuros servicios. Otro tipo de iniciativas se centran en experimentar determinados aspectos, en especial los relacionados con la disponibilidad y reutilización de cantidades masivas de datos, tal y como se hace desde el proyecto DBpedia. Aquí cabría recordar que experimentar y “jugar” con las nuevas ideas y propuestas es un paso indispensable para el desarrollo de nuevas tecnologías en la Web (Saorín, 2011).

En todo caso, todas las iniciativas anteriores comparten una misma premisa: la publicación de datos “ad-hoc” para la Web semántica, ya sea a partir de bases de datos de aplicaciones (catálogos, directorios, fondos documentales), vocabularios controlados (Agrovoc, Rameau, Lcsh, STW, LEM) u otro tipo de productos resultado del procesamiento de datos y fuentes de información de diversa índole, siendo DBpedia el núcleo central de la nube de interrelaciones en el ecosistema de Linked Open Data (Bizer et al., 2009).

Otros enfoques se centran por un lado en la “semantización” de contenidos de sitios web creados para su publicación y consulta para el usuario final. A lo anterior hay que añadir servicios orientados a la publicación colaborativa de datos para la creación de bases de conocimiento estructurado y la disponibilidad de plataformas para la gestión de conjuntos de datos. Se tratan de aproximaciones cuyo uso está abierto al público y centradas en la descripción de contenidos, recursos y objetos desde una perspectiva semántica.

Schema.org

Estamos ante una iniciativa con poco recorrido, puesto que comenzó su andadura el 2 de junio de 2011. No obstante, Schema.org merece nuestra atención ya que está desarrollado de forma conjunta por Google, Yahoo y Bing. A primera vista puede sorprender que estos tres motores de búsqueda, aparentemente competidores, colaboren entre sí para crear un proyecto. Cabría decir que la necesidad hace extraños compañeros de camino, y en efecto: la expansión de las aplicaciones y servicios de la Web 2.0 ha complicado el panorama de las búsquedas en la Web. Los motores de búsqueda han tenido que adaptarse a esta nueva realidad, modificando sus algoritmos de relevancia, detectando duplicaciones, evitando técnicas de cloacking o stuffing, promocionando contenidos de calidad contrastada o filtrando según la naturaleza del recurso. Todo ello sin entrar en la fiabilidad, la calidad o la usabilidad de los contenidos. Frente a este problema, la solución es obvia: incluir metadatos dentro de los propios contenidos web.

Sin embargo, anexar metadatos sobre aspectos generales de una página (descripción, autoría, palabras clave) tiene una importante limitación: no permite describir semánticamente aspectos detallados del contenido, pese a que en muchas ocasiones contenga información altamente estructurada, originalmente almacenada en bases de datos. Una página web con información sobre la cartelera de cine incluye información sobre películas, horario de sesiones, precios, ubicación de la sala, etc. Generalmente la información esta marcada para obtener un formato adecuado para su visualización y lectura por parte de personas. Pero también sería de gran utilidad que dicha página tuviera un marcado semántico, en el que todos esos datos estuvieran descritos de forma explícita y detallada, para su posterior procesamiento por parte de otras aplicaciones.

De este modo, sería muy sencillo plantear y resolver una consulta para conocer qué películas se proyectan entre las 18:00 y las 21:00 horas en un radio de 1.500 metros del lugar en el que reside el usuario. Otro ejemplo: los diferentes medios de transporte (autobuses, trenes, aviones) disponen de páginas donde se muestran horarios de salida y llegada, precio o recorrido. Este tipo de información es una muestra más de información altamente estructurada y susceptible de representarse mediante algún tipo de ontología para su procesamiento y posterior ejecución de inferencias: como en este caso, podría ser el trayecto óptimo entre dos ciudades.

Precisamente, eso lo que nos ofrece Schema.org4, una pseudo-mega-ontología, en forma de esquema de carácter general, que intenta representar una amplia variedad de hechos: obras, eventos, intangibles, organizaciones, personas, lugares y productos. Partiendo de la superclase “thing”, se definen varios cientos de clases y subclases (tipos), con multitud de propiedades, que permiten realizar descripciones detalladas y específicas sobre un determinado elemento informativo5.

El modelo de datos utilizado deriva de RDF, de manera que: los tipos se estructuran en una jerarquía múltiple (un tipo puede ser subclase de más de un tipo) dotada de herencia de propiedades, al tiempo que el dominio y el rango de éstas pueden estar constituidos por más de un tipo. El esquema general no puede modificarse por los usuarios, pero se proporciona un mecanismo para su extensión mediante la derivación de tipos y propiedades generales y, por tanto, la adaptación a necesidades concretas6.

La aplicación de Schema.org está íntimamente ligada al desarrollo de Html5, puesto que se basa en el uso de microdatos para la inclusión de información semántica. El resultado final, tras aplicar la propuesta de Schema.org, es una página web que, a ojos de cualquier usuario, tiene un aspecto corriente, pero que puede ser utilizada por una aplicación o agente informático para la extracción de información semánticamente relevante de forma mucho más precisa y exacta que otro tipo de técnicas como el screen scraping o el web minning.

En definitiva, el objetivo de Schema.org es ofrecer un mecanismo para el marcado semántico del código html, transformando una página web orientada principalmente a su consulta por parte de las personas a un objeto procesable para la extracción de información semántica. Las implicaciones de este tipo de solución en el funcionamiento de los motores de búsqueda son considerables: puesto que estos sistemas funcionan mejor con información estructurada, las búsquedas serían más precisas, las posibilidades de filtrado aumentarían la versatilidad del proceso de recuperación de información, los resultados podrían visualizarse de forma más personalizada a los gustos de usuario, etc. Al mismo tiempo se abren nuevos horizontes en la reutilización de dichos contenidos por parte de terceros.

Freebase

Otro servicio que también nos permite estructurar grandes volúmenes de datos es Freebase7. Sin embargo, su objetivo es la creación de una gran base de conocimiento y no, como en el caso de Schema.org, el marcado semántico de páginas html. Cualquiera puede registrarse como usuario e introducir datos siguiendo un esquema propio o reutilizar alguno ya existente en Freebase. Los esquemas incluyen tipos y propiedades que permiten describir objetos de información, que en la terminología de Freebase se denominan “topics”. Los datos pueden introducirse manualmente o utilizar algunas herramientas para la carga masiva de los mismos (Bollacker, 2008).

Tras habituarse al entorno, terminología y funcionalidades de Freebase, se tiene la sensación de estar trabajando en una wiki de carácter semántico, en la que los “topics” desempeñan el papel de los artículos de Wikipedia y en la que cualquiera de la comunidad puede realizar aportaciones y correcciones sobre los datos. Actualmente Freebase contiene más de 20 millones de “topics”. La licencia de uso de dichos contenidos es Creative Commons Attribution (CC-BY).

Uno de los aspectos más interesantes de Freebase lo constituye el enorme potencial para la creación de aplicaciones, en cualquier plataforma, que permita la explotación de los datos de este servicio. Existe una API en Freebase formada por un conjunto de servicios web REST muy sencillos, que permiten la consulta y la escritura (previa identificación como usuario autorizado) de datos. Freebase utiliza Json (como formato para el intercambio de datos) y MQL, como lenguaje de consulta para la recuperación y mantenimiento de datos8. Por tanto, estamos ante un servicio que no solamente aporta una plataforma para la gestión y consulta de los datos, sino que además ofrece un amplio soporte al desarrollo de aplicaciones.

Por otro lado, también se ofrece un soporte muy básico para RDF, permitiendo acceder a la descripción de cada “topic” mediante RDF/XML. También puede descargarse un volcado completo de Freebase en formato TSV.

Un indicio del impacto que está teniendo este tipo de servicios es la adquisición de Metaweb, la compañía que desarrolló Freebase, por parte de Google en 2010. Esto demuestra el interés que tiene la empresa de Mountain View de no perder el “tren semántico”, ampliando su cartera de proyectos en este campo.

Kasabi

Freebase y Schema.org tienen aproximaciones propias, que difieren en muchos aspectos de las soluciones para la Web semántica desarrolladas en el seno del W3C. Ninguna de ambas iniciativas utiliza de un modo claro el modelo de datos propuesto por RDF (esencial en la Web semántica) ni hace uso de otras tecnologías que podrían ser aplicadas como RDFa (en el caso de Schema.org) o Sparql (en el caso de Freebase).

Ambas ofrecen una aplicación inmediata y sencilla de algunos planteamientos de la Web semántica, y ambas ofrecen mecanismos para extender los esquemas de descripción generales. Sin embargo, su énfasis en simplificar los procesos de gestión y uso de los datos les hace optar por no utilizar ciertos aspectos normativos del W3C. Más adelante volveremos sobre este punto.

Otros tipos de usuarios tal vez prefieran atenerse a las diferentes recomendaciones del W3C y puedan generar sus propios datos en un formato que cumpla dichas especificaciones. Estos usuarios (individuos u organizaciones) podrían, a partir de bases de datos propias, generar salidas en RDF/XML o Turtle, y precisarían de una plataforma SaaS9 para gestionar dichos datos, visualizarlos o definir Sparql Endpoints (Heath, 2008). Esto es precisamente lo que ofrece Kasabi10: una plataforma para la gestión y diseminación de datos RDF.

Kasabi está basado en la plataforma Talis11 y, además de ofrecer soporte para el almacenamiento de conjunto de datos (datasets), dispone de un completo repertorio de APIs (el punto fuerte de Kasabi) para la gestión y acceso a los datos. Dichas APIs son muy flexibles, siendo posible personalizar ciertos parámetros definiendo vistas, filtros, formatos y estilos de visualización. La creación de APIs se basan en la definición servicios web REST o de Sparql Endpoints. El acceso a las APIs, y por tanto a los datos para su explotación y reutilización, se realiza a través de una clave asociada al conjunto de datos en cuestión12.

Tras registrarse como usuario es posible crear nuevos conjuntos de datos (hasta cinco en esta versión beta), configurar ciertos aspectos (estado de publicación, categorías temáticas, tipo de licencia de los datos, etc.) y mantener los datos. Éstos pueden añadirse a un dataset introduciéndolos directamente, indicando una URI o mediante extracción RDFa de una url concreta. El modelo utilizado es RDF. En este punto conviene indicar que Kasabi sigue las recomendaciones del W3C en cuanto al uso de tecnologías de la Web semántica.

Divergencia tecnológica

Uno de los aspectos más llamativos de Schema.org y Freebase es el planteamiento de una significativa divergencia en relación a ciertos planteamientos del W3C. El modelo RDF prácticamente no se contempla y, si se hace -como podría ser la visualización RDF de los “topics” en Freebase-, se realiza mediante una aplicación muy general.

En el caso de Schema.org, el modelo de descripción es claramente jerárquico. El uso de microdatos frente a RDFa supone un motivo de confusión. Este punto resulta un tanto polémico puesto que se plantea una posible barrera entre html y Xhtml, de forma que los microdatos se utilicen en Html5 y RDFa en Xhtml13.

Esto puede resultar problemático debido a las diferencias de modelo entre ambas opciones: mientras que los microdatos tienen una estructura claramente jerárquica, RDFa utiliza el modelo general de RDF basado en grafos (Sporny, 2011). Precisamente por este motivo, es posible realizar el mapeado de una estructura de microdatos a RDFa, pero no a la inversa. En este sentido, RDFa es mucho más flexible ya que permite la combinación de múltiples vocabularios y esquemas RDF, mientras que Schema.org se centra en una estructura ad-hoc de tipos y propiedades.

Así pues, el uso de los microdatos y su capacidad de interoperabilidad en el futuro es incierta. La sencillez de la sintaxis de los microdatos, frente a la mayor complejidad de RDFa, aducida por los responsables de Schema.org, no es motivo suficiente para optar por dicha solución. Sobre todo si se tiene en cuenta que el proceso de uso de una u otra tecnología estará mediada por un sistema de gestión de contenidos (CMS), que realizará el mapeado entre las estructuras internas de los contenidos y los elementos de los esquemas de metadatos correspondientes, y la consiguiente generación automática de código html/Xhtml.

Sería recomendable que en un futuro se alcanzaran tres objetivos: primero, separar las especificaciones de microdatos y RDFa de un lenguaje de marcado concreto; de esta forma ambas opciones podrían usarse tanto en Html5 como en XHTML. Segundo, los motores de búsqueda deberían considerar ambas opciones. Tercero, ir más allá del esquema propuesto en Schema.org; además de no obligar a adoptar un esquema concreto, podrían incorporarse descripciones de recursos realizadas con vocabularios RDF con una semántica bien definida.

Otro punto de separación lo constituyen los mecanismos de extensión de los esquemas propuestos tanto por Freebase como por Schema.org. La capacidad de ultra-personalización que ofrecen ambas iniciativas constituye un arma de doble filo: por un lado ofrece libertad total para la derivación de elementos del esquema, pero por otro puede suceder que se represente cierto tipo de información con elementos definidos por el usuario, en lugar de con los tipos y propiedades propios de Schema.org para ello.

Los esquemas propuestos por Schema.org y Freebase son realmente extensos, la comprensión de su significado es compleja, y en consecuencia el ámbito de aplicación de algunos elementos descriptivos puede resultar confuso. Si un webmaster no comprende un elemento -o no localiza alguno que le resulte apropiado- definirá uno nuevo. Esto puede producir una dispersión semántica en la descripción de recursos que puede provocar resultados no deseados en los procesos de búsqueda. El uso de esquemas más pequeños y sencillos proporciona una visión modular de la Web semántica que resulta mucho más adecuada en la descripción de recursos.

En el caso de Freebase encontramos otro aspecto que se separa de las tecnologías de la Web semántica: MQL. Aunque en algunos puntos MQL es similar a Sparql, su sintaxis es totalmente distinta ya que se basa en Json, y su potencialidad es claramente inferior a la de Sparql. En realidad MQL no es un lenguaje propiamente dicho (a pesar de que el acrónimo se desarrolle como Metaweb Query Language) se trata de una API que permite definir ciertos patrones como condiciones que deben cumplir los datos a recuperar. El grado de interoperabilidad de los datos de Freebase sería mayor si cada conjunto de datos contara con un Sparql Endpoint.

Mercado Linked Data, SaaS y APIs: evoluciones necesarias

La Web semántica precisa de ciertos elementos que aumenten su radio de acción y contribuyan a incrementar su despliegue. Kasabi sugiere y lleva a la práctica algunas ideas y conceptos que pueden resultar de gran interés a los profesionales y usuarios que operen en este entorno.

Hablar de un mercado de datos a partir de la Web semántica y de Linked Open Data puede resultar un contrasentido, pero resulta necesario hacerlo y referirse a Linked Data (sin el “Open”) para crear nuevos modelos de negocio y oportunidades.

Dicho mercado podría matizarse, así como los servicios y productos objeto de la compra-venta: podrían comprarse los datos en su totalidad o parte de ellos, con mayor o menor nivel de granularidad (con la consiguiente diferencia de tarifas), ofrecer un producto básico gratuito y otro producto comercial mucho más avanzado, con datos añadidos producto de un procesamiento de los datos originales. Comparando este nuevo mercado con el de los medios de comunicación en internet, es fácil llegar a la conclusión que el camino a seguir sería muy similar. Evidentemente hay aspectos que habría que afinar en este modelo: derechos de explotación de datos en función de su origen, licencias de uso, inclusión de publicidad, etc.

La aportación de conjuntos de datos de organismos e instituciones públicas desempeñaría un papel fundamental en este planteamiento, constituyendo núcleos de datos enlazados abiertos a su uso y explotación públicos. El conjunto de la sociedad invierte en la gestión digital y cotidiana de dichos datos, y en un futuro inmediato deberá ser obligación de las administraciones públicas la difusión de los mismos de forma desagregada, no en forma de documentos, ya que de este modo se consigue mayor versatilidad para su reutilización.

El uso de dichas aportaciones por parte de organizaciones privadas para su procesamiento con vistas a incorporar valor añadido (definiendo nuevos vínculos, creando nuevas plataformas de consulta y ofreciendo nuevos servicios y productos) generaría nuevos focos de negocio y por tanto empleo y crecimiento económico, además de difundir las actividades de las administraciones públicas en este sentido14.

En este modelo de negocio resulta fundamental la existencia de plataformas SaaS de uso gratuito con ciertas limitaciones y que cubrirían las necesidades de gestión y publicación de datos de la mayor parte de entidades públicas o de cualquier otra procedencia, siempre y cuando tuvieran licencias de uso tipo Creative Commons. Para otro tipo de requisitos asociados a la explotación comercial de dichos datos mediante acceso restringido estas plataformas, se podría disponer de servicios de pago con un amplio catálogo de APIs: limitación del acceso a datasets mediante claves de autenticación, aplicación de estilos visuales, sistemas de búsqueda avanzados, incorporación de fuentes de datos externas, definición de ontologías, ejecución de inferencias etc.

En cuanto a las APIs para la reutilización de datos, también puede observarse que se están incorporando los principios de crowdsourcing para su desarrollo. Este modelo no es nuevo, puesto que, en gran medida, la implantación y evolución de los CMS se debe al desarrollo de su catálogo de plugins y módulos (para ampliar funcionalidades) mediante este modelo (Leimeister et al, 2009).

En el caso de las plataformas para la publicación de datos semánticos, se debería seguir un modelo similar, que enriqueciera las aplicaciones y con capacidad de reutilización de los datos. De este modo, serían los propios editores y usuarios de datos (y no únicamente los desarrolladores de los sistemas) los que marcarían las tendencias y necesidades en el ámbito de la Web semántica.

Conclusiones: apertura, semantización e integración

El análisis y las reflexiones anteriores pueden resultar de utilidad para un mejor conocimiento estratégico del momentum actual de la Web semántica. Este conocimiento puede ayudar a decidir el modo en el que una comunidad, proyecto u organización puede participar en este entorno aportando datos o dotando a sus proyectos de ciertas características que pueden ayudar a un mejor posicionamiento y difusión de sus contenidos y actividades.

Los proyectos analizados, aunque son claramente mejorables (en especial Schema.org y Freebase), constituyen aportaciones de gran interés. Schema.org muestra el interés y la relevancia que tendrán próximamente los procesos de “semantización” de la Web convencional, y por tanto la creación de vínculos, y la consiguiente integración, con conjuntos de datos RDF. Freebase muestra un posible camino evolutivo del modelo wiki, en donde comunidades de usuarios participan en la gestión descriptiva de objetos de información de manera estructurada, y tal vez podría ser un referente para Wikipedia. Kasabi ofrece una visión esquemática de cómo serían las plataformas de publicación de datos semánticos, con las que pueden desarrollarse nuevos modelos de negocio.

Se puede constatar una tendencia general hacia facilitar la publicación de datos semánticos, y un escenario en el que surgen tecnologías divergentes con enfoques alternativos sobre la Web semántica. Por tanto, las organizaciones deben encontrar su posición en esta nueva realidad de una Web semántica más abierta, mientras que los desarrolladores deben considerar la aplicación o evolución de tecnologías ya existentes para no volver a pasar por un camino ya recorrido.

En cualquier caso, nunca hay que perder de vista que siempre resulta imprescindible abrir nuevos focos de debate y desarrollo sobre tecnologías y aplicaciones de la Web semántica y Linked Data, porque la Web semántica es de todos.

Referencias

d’Aquin, Mathieu et al. “Toward a New Generation of Semantic Web Applications”. Intelligent Systems, IEEE, mayo de 2008, v. 23, n. 3, pp. 20-28. DOI: 10.1109/MIS.2008.54.

Bizer, Christian et al. “DBpedia: A crystallization point for the web of data”. Journal of web semantics: science, services and agents on the world wide web, 2009, n. 7, pp. 154–165. DOI: 10.1016/j.websem.2009.07.002

Bollacker, Kurt et al. “Freebase: a collaboratively created graph database for structuring human knowledge”. Proceedings of the 2008 ACM SIGMOD international conference on Management of data. DOI: 10.1145/1376616.1376746

Franklin, Michael; Halevy, Alon; Maier, David. “From Databases to Dataspaces: A new Abstraction for Information Management”. ACM SIGMOD Record, diciembre 2005, v. 34, n. 4, pp. 27-33. DOI: 10.1145/1107499.1107502

Heath, Tom. “How Will We Interact with the Web of Data?”. Internet Computing, IEEE, septiembre-octubre de 2008, v. 12, n. 5, pp. 88-91. DOI: 10.1109/MIC.2008.101

Heath, Tom; Bizer, Christian. “Linked Data: Evolving the Web into a Global Data Space”. Synthesis lectures on the semantic web: theory and technology, 2011, v.1, n. 1, pp. 1-136.
http://linkeddatabook.com/book

Isaac, Antoine et al. “Library Linked Data Incubator Group: Datasets, Value Vocabularies, and Metadata Element Sets”. W3C Incubator Group Report, 25 de octubre de 2011.
http://www.w3.org/2005/Incubator/lld/XGR-lld-vocabdataset-20111025

Leimeister, Jan Marco et al. “Leveraging Crowdsourcing: Activation-Supporting Components for IT-Based Ideas Competition”. Journal of Management Information Systems, 2009, v. 26, n. 1, pp. 197-224. DOI: 10.2753/MIS0742-1222260108

Manku, Gurmeet Singh; Jain, Arvind; Sarman, Anish Das. “Detecting near-duplicates for web crawling”. Proceedings of the 16th international conference on World Wide Web ACM New York, 2007. DOI: 10.1145/1242572.1242592

Saorín, Tomás. “Cómo Linked Open Data impactará en las bibliotecas a través de la innovación abierta”. Anuario ThinkEPI, 2012, v. 6.
http://www.thinkepi.net/como-linked-open-data-impactara-en-las-bibliotecas-a-traves-de-la-innovacion-abierta

Sporny, Manu. “An Uber-comparison of RDFa, Microdata and Microformats”. The Beautiful, Tormented Machine, 25 junio, 2011.
http://manu.sporny.org/2011/uber-comparison-rdfa-md-uf

Notas

1. Puede consultarse una traducción de dicho documento en:
http://skos.um.es/Incubator/lld/XGR-lld-vocabdataset
2. http://thedatahub.org
3. http://data.gov.uk
4. http://schema.org
5. El esquema completo puede consultarse en:
http://schema.org/docs/full.html
6. Existe una completa documentación (muy ejemplificada) de esta iniciativa en:
http://schema.org/docs/documents.html
7. http://freebase.com
8. El manual de MQL también constituye una buena referencia de la arquitectura de Freebase/Metaweb:
http://wiki.freebase.com/wiki/MQL_Manual
9. Más información sobre Software as a Service en:
http://en.wikipedia.org/wiki/Software_as_a_service
10. http://kasabi.com
11. Más información en:
http://www.talis.com/platform
12. Más información en:
http://kasabi.com/doc/api
13. Resulta muy clarificadora la siguiente discusión:
http://www.w3.org/html/wg/tracker/issues/76
14. La clase política en particular, y la propia sociedad en general, ya está haciéndose eco de esta necesidad:
http://www.elmundo.es/elmundo/2011/12/19/navegante/1324300705.html

Etiquetas: , , , , , , , , ,

1 respuesta a Prospectiva de la Web semántica: divergencia tecnológica y creación de mercados Linked Data

  1. SUPERMERCADOS DE LINKED DATA

    No me termina de convencer la traducción de “mercados Linked data”, porque mercado creo que lo entendemos como el concepto económico “mercado” o “mercado de la información”, sobre el que se predican unas leyes, agentes y dinámicas de interacción.

    El término original es “marketplace”, que es más tangible: la plaza del mercado, el mercado de abastos. Quizá empleando “supermercados de Linked data” nos acercamos mejor a la idea: lugares fácilmente accesibles al consumidor, con una política de precios clara y barata, con mucho trasiego y una oferta surtida.

    No usaría mercado de abastos, porque proceden de una época de amas de casa. No usaría “hipermercados”, porque pese a que se ajusta mejor a la idea de todo tipo de productos, el prefijo “hiper” está demasiado estrujado en hipertexto o hipermedia. Tampoco centros comerciales o parques comerciales, o grandes almacenes.

    De cualquier forma, el concepto es clave: los datos convertidos en commodities que pueden ser adquiridas de forma cómoda y transparente para producir servicios”.