Informática

Proyecto, programas de autenticación

Internet, ha crecido de una forma exorbitante en el correr del tiempo, desde sus inicios. Según algunas fuentes, la empresa de Redmond, Microsoft, creadora del sistema operativo Windows, 500, es el número de páginas Web que existían en 1994 en la red, hoy, figuran alrededor de decenas de millones. Con esto, obviamente se plantean algunos interrogantes, como el hecho de saber que este aumento, produce más o menos inseguridad, por que a la variedad, se hace más difícil la detección de información de una página Web. El otro interrogante, es la credibilidad de una información “x”, sabiendo que los tiempos a veces, no permiten investigar lo suficiente, para saber que tan real puede ser, la información de un blog, página, etc.

Nuevas herramientas

En Austria, un grupo de investigadores, pertenecientes a un centro de investigación tecnológica, con el nombre de Know- Center, perteneciente a ese país, esta inserto en un proyecto, que básicamente es un software, para identificar de manera automática, un promedio de aparición de palabras clave de un site en la Web y luego, cotejar su contenido con los de artículos de prensa que tengan el mismo tema, con el objetivo de saber si la información publicada se considera de fiar. De esta forma, el programa analizaría un blogs y propondría tres tipos de clasificación, los muy creíbles, creíbles o poco creíbles. Según comentan las fuentes, el prototipo ya ha sido probado a través de un blog con la misma entrada en noticias de fuentes de la Agencia Austriaca de Prensa, en la cual, su desempeño ha sido aceptable para los investigadores.

Comenta uno de sus creadores, “La necesidad de herramientas de esta clase se hace tanto más necesaria cuanto que han aumentado mucho las páginas generadas por los propios internautas, como los blogs”. Otro aspecto importante acerca del programa fue el comentario que “Tiene que ser automático porque no es posible para los usuarios clasificar y leer todos esos blogs (vea, El blog, que es y cual es su presente)”. En un proyecto similar están trabajando investigadores japoneses, pertenecientes al Nara Institute of Science and Technology. El mismo, también es un programa que extrae de Internet, una cantidad de opciones sobre un tema, para mostrarlos a los usuarios, agregando referencias de apoyo en forma de un diagrama que explica cómo se relacionan las diferentes opiniones.

Wikipedia y la duda

No hay duda de la popularidad de este site, como referente de aquellas personas que buscan fuentes e información escrita, acerca de diversos temas. Uno de los pioneros en lo que se podría catalogar como enciclopedia virtual Web, con unos 2,6 millones de artículos aproximadamente según fuentes. En la actualidad, este site genera incertidumbre, debido a su principal característica, utilizar un sistema en que cualquier usuario del mundo, puede leer una fuente y modificarla. Uno de los datos más importantes, que generaron esta duda, fueron un falso dato administrado sobre un senador estadounidense, con el nombre de Edward Kennedy, sumándole a estos falsos datos que se suelen repetir en varios artículos, expertos han aseverado que la forma de redacción es pobre y desestructurada en su mayoría, de todas maneras, sigue siendo un gran referente de aquellas personas que necesitan información. Por este motivo, investigadores de una universidad italiana, están intentando mejorar sus falencias, su objetivo es, detectar la baja o alta calidad de sus entradas.