TRADUCCIR AL...



abril 05, 2008

2a. Conferencia Internacional sobre Topic Maps

Del 2 al 4 de abril de 2008 tuvo lugar en Oslo, Noruega, la segunda Conferencia Internacional sobre Topic Maps, a la cual tuve la posiblidad de asistir.

Topic Maps es un ISO estándar, (ISO/IEC 13250) utilizado en la representación del conocimiento, haciendo especial énfasis en las asociaciones entre los conceptos (tópicos o temas). Dicho estandar puede ser considerado como una evolución de los tesauros, pues donde estos últimos dicen sólo TR (término relacionado), Topic Maps dice cómo están relacionados, de qué naturaleza es la relación. Pero los Topic Maps son muchas otras más cosas además… son una de las tendencias más fuertes en organización del conocimiento en Noruega (donde además la programación por objetos comenzó), de amplio uso en sitios web, e-government, e-learning. También es utilizada en Estados Unidos, Holanda, Alemania, Australia y Nueva Zelanda (en estos dos últimos en el campo bibliotecario). Son, por decirlo coloquialmente, “la competencia” de RDF en la visión y creación de la llamada “web semántica”, pero los Topic Maps están más orientados hacia la comprensión humana que RDF, y son más afines a la forma en que los bibliotecarios han tratado por siglos de organizar el conocimiento.

Esta conferencia hizo énfasis en la llamada “Vision of Subject-Centric Computing”, lo cual podría traducirse como una visión temáticamente centrada de la informática. En términos generales, es una visión que pasa de focalizar la tarea de organización de la información del documento hacia los temas (subjects). Según la comunidad de los Topic Maps, los sistemas informáticos están focalizados en aplicaciones y documentos, no en aquello de lo que ellos tratan. Por ejemplo, acorde con esta visión, su escritorio (desktop) no estaría lleno de accesos directos a documentos de word, hojas de cálculo, aplicaciones como el correo, ni tampoco tendría que pensar una vez en cómo organizar sus marcadores (o favoritos) y luego cómo organizar sus “carpetas” o documentos, ni cómo organizar sus correos electrónicos. Todo, según este ejemplo de la visión mencionada, estaría unido por un tema. Así, si está interesado en Topic Maps, en su escritorio aparecería un ícono que le daría acceso a los marcadores acerca de TM, a los documentos, a los correos electrónicos sobre este tema, etc. Este ejemplo es de hecho una propuesta concreta que tanto la comunidad de RDF como de TM ha presentado a Microsoft.

Esta visión incluye también a las bibliotecas, y en la conferencia se presentó una ponencia sobre la conversión de MARC en Topic Maps (ya existe de hecho un algoritmo para convertir MARC a FRBR –Functional REquirements for Bibliographic Records, de IFLA– presentada en el sitio de OCLC). El conferencista, Sam Gyun Oh, de una universidad coreana, mostró una aplicación real de los Topic Maps en la Biblioteca Nacional de Corea, haciendo uso de dicho proceso: MARC en FRBR y FRBR en Topic Maps. Mostró los altos beneficios para la organización de la información, así como las posibilidades que se abren para la integración con otras bibliotecas, para la flexibilidad por parte del usuario en el despliegue de la información acorde a sus intereses… todo esto es posible porque en los Topic Maps todo es un tema (“everything is a subject” es el lema de los Topic Maps), es decir, de acuerdo a esta visión, no sólo las etiquetas 600 en MARC, o cualquier campo de una base de datos llamado “Temas” que se diligencia por medio de tesauros o listas de encabezamientos de materia, es un tema. Todo es un tema, incluyendo los autores, los países del campo de publicación, etc., etc. Visualmente, el catálogo es presentado como una página de wikipedia, pero a diferencia de ésta, la estructura subyacente no estaría basada en hipervínculos en HTML, sino en una estructura de Topic Maps (con una ontología de base), soportada por XML. Y las posiblidades de focalizar el despliegue en cualquier tema son mucho mayores que las de simplemente dirigirse a un vínculo (se presentan asociaciones entre los términos, jerarquías, datos, referencias a otra variedad de recursos y tópicos, etc.)

Los Topic Maps nacieron en 1991 de la necesidad de combinar distintos índices que aparecen en la parte posterior de los libros. Esa necesidad llevó a la creación de un modelo de representación del conocimiento que pasó a ser un ISO estándar en 1999. Actualmente existe una gran cantidad de aplicaciones tanto de código abierto como comerciales, y los temas de mayor interés en la conferencia fueron internos (lenguaje de búsqueda, lenguaje de restricciones), así como externos: los Topic Maps y la Web, los Topic Maps y las aplicaciones en e-learning, bibliotecas, e-government y en empresas (Nokia y Siemens presentaron uno de los más llamativos casos). Los invitados especiales fueron David Weinberger (autor del libro "Everything is miscellaneous) y Alex Wright (arquitecto de la información del New York Times, autor del libro "Glut. The Deep History of Information Sciencce: Mastering Information Through the Ages", un fascinante recorrido por la historia de la Bibliotecología, que hace pensar que los bibliotecarios siempre soñaron -y trataron de llevar a la práctica, como Paul Otlet-, la idea de la Web).

Liliana Melgar
Noruega

En sus contextos de gestión de información,
se conoce o se están trabajando los Topic Maps?
Qué opina de este proyecto de organización de la información?



marzo 31, 2008

En dos años podría colapsar internet ante exceso de información

"Llegará el momento en que será casi imposible ver un video, bajar una canción o 'chatear',"pronosticó Johna Till Johnson, presidente de esa compañía, una entrevista con 'The New York Times'.


La solución, lastimosamente, "es costosa, y puede que ya sea tarde para reaccionar", dice Nemertes.

Esta firma de investigación, cuya especialidad es cuantificar el impacto de la tecnología en los negocios, estima en 137.000 millones de dólares (cerca de 200 billones de pesos) las inversiones que países y compañías proveedoras de acceso tendrán que hacer para aumentar la capacidad instalada hasta un nivel aceptable. Esta suma es 70 por ciento más de lo que se proyecta para este año en desembolsos dirigidos a aumentar la potencia de la Web.

De acuerdo con un estudio de la Universidad de Minnesota, el flujo de videos, fotografías, textos, audios, juegos, canciones, llamadas y demás archivos que viajan por la Web crece a un promedio anual de 50 por ciento desde hace una década. En tres años, los datos que circulan en Internet duplicarían su volumen cada 12 meses.

La investigación de ese plantel estadounidense revela que solamente el tráfico actual de YouTube es igual al que soportaba toda la Red en el año 2000. En ese sitio web se pueden ver más de 80 millones de videos que la gente publica a razón de casi 200.000 diarios.

El peso de Asia Alberto Pardo, consultor en temas de Internet, dice que "así como nadie calculó la demanda actual de petróleo de países como China, nadie previó la cantidad de nuevos usuarios de la red (cientos de millones) que han surgido en menos de tres años en Asia".

"Internet funciona sobre una tecnología que lleva 40 años sin mayores cambios. Cada año, los costos de esta infraestructura mundial se triplican, lo que la está convirtiendo en un sistema insostenible desde el punto de vista económico para los operadores del servicio de acceso", piensa Larry Roberts, fundador en los años 60 de Arpanet, la red creada por encargo del Departamento de Defensa de E.U. sobre la cual evolucionó Internet.

Además del creciente tráfico, la falta de planeación de los países a la hora de diseñar su infraestructura de telecomunicaciones y el centralismo tecnológico siembran las semillas del caos.

"El 90 por ciento del 'corazón' de Internet está en los Estados Unidos, más exactamente en el estado de Washington. Allá 'vamos' todos los usuarios de la Red cuando entramos a Google, Yahoo, Hotmail, YouTube, etc. Es allí donde se empieza a generar el trancón", explica Pardo.

Pero también hay congestión en las arterias que conducen a ese corazón: los cables submarinos, cuyas fallas se reflejan en lentitud de acceso y hasta en caídas de la Red.

Por eso Colombia, que tiene cerca de 12 millones de internautas, adelanta proyectos que aumentan la capacidad de transporte de información, como el nuevo cable submarino SAm-1, de Telefónica.

Mientras tanto, el director de Nemertes Research se pregunta: "¿Cuál será el siguiente YouTube o Facebook que saldrá en los próximos meses y que volverá a deteriorar la capacidad de Internet?".

¿Qué pasaría Si la web 'se funde'?

  • Las consultas bancarias, así como las transacciones virtuales, colapsarían.
  • Cada día se dejarían de entregar 200.000 millones de correos electrónicos.
  • No se podría usar la mayoría de servicios de telefonía fija y móvil, que hoy son digitales.
  • El comercio perdería millones. En Navidad, iTunes vendió 20 millones de canciones en línea.
  • Los empleados móviles (teletrabajo) no podrían acceder a sus labores de manera remota.

    El tamaño del cosmos digital: 281.000 millones de Gigabytes

    Según el estudio 'La expansión del universo digital', de las empresas IDC y EMC, la información digital disponible en todo el mundo llegó a 281.000 millones de Gigabytes. Para que se haga una idea: en un solo GB caben 250 canciones MP3 o cerca de mil fotos digitales de buena resolución. En promedio, un computador normal para la casa tiene unos 100 GB de capacidad.

    Para los responsables de la medición, el universo digital creció más de lo previsto debido al auge de las películas por Internet (cada una tiene un tamaño promedio de 6 GB) y las etiquetas RFID, usadas por el comercio como reemplazo del tradicional código de barras (cada una requiere 128 bits). También ha contribuido el avance de tecnologías como VoIP (voz sobre protocolo de Internet), televisión vía Web y fotografía desde celulares.

    De acuerdo con el informe, la cantidad de información digital arroja un promedio de 45 GB por cada habitante de la Tierra. Se calcula que en el 2011 el universo digital será seis veces el actual; es decir, que el promedio por persona podría alcanzar los 270 GB.

    "La sociedad está sintiendo los efectos de la explosión digital. Las organizaciones necesitan planificar sobre las oportunidades sin límite del uso de datos en nuevas formas y sobre los desafíos del buen gobierno de la información", dijo el presidente de EMC.

    Datos de la red

  • 1.000 GB (Gigabytes), suficientes para almacenar 250.000 canciones en formato MP3, es la capacidad que en pocos años tendrían los computadores personales. Hoy cuentan con más o menos 100 GB.

  • 605.000 nuevos sitios de Internet fueron creados entre el primero de enero y el viernes pasado, según el sitio de medición Netcraft.

  • 162,662 millones de sitios web hay actualmente en la red.

  • 75.000 millones de correos electrónicos es el equivalente de los videos que YouTube distribuye cada día.

  • 1.330 millones de personas (más de la quinta parte de la población del planeta) usan Internet a diario.

  • 100 millones de usuarios nuevos le ha aportado China a Internet en los últimos tres años. Apenas el 15 por ciento de la población de ese país usa la red.

  • JOSÉ CARLOS GARCÍA R.
    SUBEDITOR TECNOLOGÍA
    CASA EDITORIAL EL TIEMPO


    Qué opina de este futuro incierto de Internet? Ya se está dando?