Inicio » Notas ThinkEPI 2011 » Personalización e interactividad en los rankings de universidades publicados en la Web

Personalización e interactividad en los rankings de universidades publicados en la Web

Resumen:
A partir de la primera década del siglo XXI se produce una explosión en la publicación de rankings de universidades por todo el mundo. La cantidad y variedad de iniciativas provoca que diversos autores e instituciones reflexionen acerca del futuro desarrollo de los mismos, que pasan, entre otros aspectos, por el uso de agrupaciones y las posibilidades de interacción y personalización que las webs permiten. Se repasan las características principales de estas nuevas tendencias en el diseño de rankings, ejemplificadas por iniciativas como la del Centrum für Hochschulentwicklung (CHE), la Complete university guide (CUG), y el College navigator of Taiwan). Se discute acerca de sus posibles ventajas e inconvenientes.

[Leer más...] Personalización e interactividad en los rankings de universidades publicados en la Web



Cómo citar este artículo:
Orduña-Malea, Enrique. “Personalización e interactividad en los rankings de universidades publicados en la Web”. Anuario ThinkEPI, 2011, v. 5, pp. 216-222.

Etiquetas: , , , , , ,

3 respuestas a Personalización e interactividad en los rankings de universidades publicados en la Web

  1. Isidro F. Aguillo

    A LA LUZ QUE MÁS CALIENTA
    Por Isidro F. Aguillo

    Hasta 2003 la mayoría de las publicaciones y resultados de los “expertos” en educación superior pasaban desapercibidas fuera de su comunidad académica. El impacto logrado era escaso, fundamentalmente porque los tamaños de poblaciones eran pequeños (incluso ridículos), sus estudios de caso anecdóticos y sus análisis bastante endogámicos (conozco capítulos de libro dedicados a universidades en países en vías de desarrollo donde prácticamente sólo se utilizan ejemplos de EE.UU. y Europa). Al mismo tiempo, desde el mundo del periodismo se había encontrado un filón en la publicación de listas de universidades (nacionales) organizadas de acuerdo a criterios subjetivos que pretendían aconsejar o guiar en la selección de institución a futuros alumnos (y sus padres).

    La situación cambia radicalmente con la publicación del Ranking de Shanghai, un trabajo académico relativamente riguroso y que ofrece información relevante y “desconocida” sobre las universidades del mundo. El impacto es inmediato, a todos los niveles, hasta el punto de cambiar agendas políticas nacionales en muchos países (¡Francia!). En la comunidad dedicada a la “higher education” se producen una gran variedad de reacciones, desde la crítica razonada (Van Raan y el Cwts) hasta la descalificación absoluta (un experto de la Unesco descubre la bibliometría en ese momento e inmediatamente la rechaza, poco después pierde su puesto de trabajo).

    Algunas reacciones son más inteligentes. Un equipo que nunca ha hecho rankings y que incluso rechaza ese modelo “simplista” se sube al carro y se proclama campeón europeo de los rankings de universidades. Conseguirá millones de euros de la Comisión Europea para clasificar 150 universidades con emoticones de colores. El Times Higher Education remodela sus tablas y construye sus rankings mundiales haciendo creer a millones de personas que están relacionados con el prestigioso periódico The Times (lo que es mentira), que son expertos en la materia (en realidad son periodistas que subcontratan fuentes de terceros), que son imparciales (nunca las universidades británicas y de la commonwealth han estado mejor representadas, quiero decir sobre-representadas) y neutrales (a pesar de cierta correlación entre publicidad contratada y posiciones privilegiadas en el ranking).

    Dios los cría y ellos se juntan. Se crea un grupo de trabajo (IREG) que actuará como lobby, árbitro y juez del “mercado” y cuyo objetivo primario es el ánimo de lucro. Para mantener las apariencias se editan los Principios de Berlín, una serie de normas éticas y prácticas que sistemáticamente incumplen, sin bochorno alguno, varios de sus autores.

    Sin embargo, dentro del contexto más académico, y al la luz de la nota de Enrique Orduña, dos de dichos principios merecen una atención especial. El primero es la estabilidad, es decir, se aboga por mantener estrictamente la misma metodología a lo largo de los años. Es indudable que esto atenta contra cualquier avance o innovación, motor básico de cualquier actividad científica. Pero resulta aún peor, pues impide incluso la corrección de errores y terminamos viendo a los editores de Shanghai presentando su trabajo por todo el mundo con las mismas trasparencias de hace 8 años.

    El segundo principio se refiere a la personalización, es decir a la posibilidad de que cualquiera manipule a su antojo (¿criterio?) los pesos y variables de los rankings, lo cual se califica como importante valor añadido. Es decir se pide al futuro universitario que seleccione variables y defina su importancia relativa. Para ello tendrá que valorar aspectos sobre los que como bien es conocido es experto cualquier estudiante de 17-18 años, o en su defecto sus padres o algún profesor de la escuela de enseñanza media local. Y todo esto para el mercado académico mundial.

    Por contextualizar la propuesta, el paciente guiará al farmacéutico en la elaboración del antigripal proponiendo los compuestos y sus proporciones según el grado de congestión, la presencia de molesta tos o las décimas de fiebre que note.

    Mi posición personal es que los rankings han de ser útiles, y que por tanto no pueden basarse en medidas subjetivas ni en criterios ad-hoc. Tanto como las variables individuales hay que considerar el modelo integrado de las mismas y la elaboración, evaluación y aplicación de dicho modelo debe reservarse a expertos.

  2. Jesús Tramullas

    PARAFERNALIA PSEUDO-CIENTÍFICA
    Por Jesús Tramullas

    (ironic mode on)

    …Está claro que los que no nos creemos ni una palabra de todo este mejunje de rankings (éste, ¿en qué equipo juega?), indicadores interesados, ingeniería del proyecto trinca-subvenciones, negocietes y chanchullos en la evaluación por pares y demás parafernalia pseudo-científica, no podremos colocar nuestra deuda pública sensatamente en estos tiempos…

    (ironic mode off)

  3. Enrique Orduña-Malea

    CONSIDERACIONES FINALES
    Por Enrique Orduña-Malea

    En primer lugar agradezco tanto a Isidro como a Jesús sus interesantes comentarios.

    Respecto a la respuesta de Isidro, en mi texto, pese a su título, no me posiciono expresamente a favor de los rankings personalizados, simplemente describo la tendencia en ciertos entornos profesionales hacia la elaboración de este tipo de servicios online. De hecho, señalo algunas de las críticas más evidentes.

    Sobre los Principios de Berlín para la elaboración de rankings de universidades, sinceramente, me parecen una declaración de buenas intenciones pero que distan mucho de la realidad. De hecho, los editores del Arwu analizaron y estudiaron dichos Principios (incluso los transformaron en “criterios”), y vieron que algunos eran imposibles de llevar a cabo. De hecho, ningún ranking los cumple en su totalidad. Además, un ranking es un ranking (simplemente hay que saber un poco de matemática básica), y no un conjunto de emoticones de colores (como los denomina Isidro en su crítica). Serán interesantes pero no son rankings.

    La estabilidad de los resultados (que es uno de los Principios), es un tema que merece discusión aparte y en el que yo no entro en mi texto. Aunque sinceramente, mantener indicadores y metodologías que ya se sabe que son erróneas (así lo expresa unánimemente la comunidad) y no variarlos en aras a mantener una estabilidad en los resultados que permitan hacer estudios en el tiempo (es decir, publicar artículos con análisis diacrónicos), me parece absurdo.

    Sobre el IREG, se debe argumentar a su favor que han sabido montar su negocio a la perfección. De simple observatorio han pasado a “agencia internacional de acreditación de rankings”. Ahí es nada.

    Aunque la discusión sobre los rankings puede ser eterna, mi interés en ellos radica más en las interrelaciones y correlaciones que existen entre los indicadores que miden aspectos cuantitativos de la producción documental universitaria (en general, no sólo científica). Lo absurdo -y como indica Tramullas, lo pseudo-científico-, es hacer creer que la universidad que aparece en el número 1 del ranking es mejor que el resto, o que esa posición lleva implícita un concepto de calidad.

    La universidad que publica más artículos o que recibe más citas no es la mejor universidad, simplemente porque nadie ha sabido todavía definir qué significa ser “mejor universidad”. La universidad que más citas recibe es simplemente “la más citada”, nada de “mejor o peor”.

    Modificar agendas económicas, presupuestos universitarios y nuestros impuestos en función de las posiciones en rankings es algo que rechazo, pero desde luego es un debate aparte.