miércoles, 25 de septiembre de 2013

A las puertas de la Web semántica

Image: Duncan Hull/Flickr (Creative Commons)


La Web semántica surge de la idea del científico Tim Berners-Lee como base precursora del conjunto de actividades de investigación llevadas a cabo por el organismo W3C. 

Básicamente, el concepto de partida de la Web 1.0 es la de una Web estática, mientras que la de la Web 2.0 la dota de contenidos sociales, dinámicos y abiertos. Son páginas que inicialmente se desarrollan codificando en HTML, XHTML, AJAX, CSS, RSS/ATOM, junto con las novedosas páginas que aglutinan diferentes servicios de la nube:  los Mashups. 

Según los apuntes de Sistemas Basados en el Conocimiento de los autores J. Mira Mira R. Martinéz Tomás (II-UNED): «la información contenida en las webs desarrolladas hasta el momento es del tipo convencional y con una metainformación orientada al humano, al lenguaje natural, y que por tanto hace muy difícil la interpretación, gestión y búsqueda de la información de manera automática. Desde luego, Google ha supuesto un gran avance en particular en la búsqueda de información, pero no deja de ser una búsqueda a partir de palabras clave. Esto es, se busca sobre páginas de semántica plana para el buscador.»

En consecuencia, y según las palabras de estos profesores, el objetivo que se intenta alcanzar es el de una Web con páginas de semántica propia, interpretable por agentes software y no solo por humanos. Obviamente, la estructura de la Web cambiará en un futuro próximo de acuerdo al esquema indicado a continuación y a la imagen anterior:

  • Unicode:  Codificación en caracteres en formato internacional de 16-bits.
  • URI (Unform Resource Identifier): Para especificar las referencias de recursos en Internet, especialmente URL (Uniform Resource Locator) y URN (Uniform Resource Name). A través de estos identificadores se podrá localizar cualquier objeto Web.
  • XML, ns, y xmlschema: Esta compleja capa se encargará de la intercomunicación de los agentes gracias a la capacidad de intercambio de documentos XML. Con los NS (namespaces) se podrá cualificar los contenidos del XML de dichos documentos, y con xmlschema se restringirá el formato de los documentos XML mediante una convención sintáctica.
  • RDF y rdfschema: Esta capa se basa en la anterior y permite especificar contenidos semánticos de acuerdo a la estructura sujeto-predicado-objeto. RDF es un lenguaje que define un modelo de datos orientado a objetos donde el sujeto y el predicado serán URIs y el objeto un URI o una cadena literal.
  • OWL: Es la capa de ontologías, donde se establece una estructura relacionada que define el conocimiento del dominio o dominios.
  • Reglas: Esta capa realizará razonamientos e inferencias basadas en la información de la capa anterior.
  • Comprobación: Se realizan pruebas en un lenguaje unificado de la Web semántica, facilitando las inferencias realizadas con las reglas anteriores.
  • Confianza: Los agentes software se mantienen escépticos hasta que la información proporcionada por la Web semántica se haya comprobado exhaustivamente.
  • Firma digital: Se utilizará la firma digital para asegurar la autenticidad e integridad de la fuente.
La Web semántica está todavía en fase de pruebas y solo se han implementado algunos proyectos pilotos como el de la Biblioteca Nacional de Francia y en resultados semánticos de búsquedas en Google.

Por otro lado, existe cierta controversia en la adopción de la Web semántica causada por su complejidad técnica y la falta de interés de los propios usuarios.
De ser realidad el desarrollo de las webs semánticas se daría un gran salto cualitativo en la búsqueda de información en Internet, pudiendo llegar a consultar contenidos insospechados y al alcance de unos pocos hasta el momento.

Respecto a la investigación en la generación de webs semánticas a partir de webs convencionales, existe una tesis doctoral realizada en nuestra Universidad que estudia cómo hacer efectiva dicha conversión:


martes, 24 de septiembre de 2013

Search engines design

Image: MoneyBlogNewz/Flickr (Creative Commons)

Existen, hoy en día, decenas de motores de búsqueda a lo largo de Internet. Todos ellos reúnen una gran cantidad de conocimientos en todas las áreas de la informática y la matemática. Actualmente, diseñar un motor de búsqueda para contenidos globales en Internet implica unas técnicas muy avanzadas sobre teoría del lenguaje, matemáticas, IA, sistemas distribuidos, redes, bases de datos y programación. 

Uno de los buscadores más avanzados es el conocido motor Google, con varios CPDs (Centro de Procesamiento de Datos) situados en diferentes países. Este alarde tecnológico precisa de ubicaciones en las latitudes más frías del planeta y un gasto energético considerable. Por este motivo necesitan de una política tecnológica de ahorro y optimización de procesos y recursos. 

Para programar sus servicios de búsqueda, Google utiliza generalmente C++, Java y Python, pero según el artículo de Wikipedia actualmente se decantan por el lenguaje "open-source" Go. Obviamente, los conocimientos avanzados de CORBA, Sockets y RMI son también fundamentales en este tipo de disciplinas informáticas. 

La historia de los buscadores en Internet comienza en 1993 con el primer motor "Wandex" desarrollado en el MIT. Posteriormente surgieron otros como "Lycos" y "WebCrawler" en el 1994. Como es lógico, se está empezando a escribir el futuro de la búsqueda de información en Internet, y lo que ahora se ha diseñado es solo una ínfima parte de lo que depararán los próximos años. 

En nuestra Universidad, el departamento de Lenguajes y Sistemas Informáticos tiene una larga trayectoria investigadora y un reconocido grupo de investigadores (premiados por Google Inc.) en el campo del procesamiento del lenguaje natural y recuperación de la información, a través del grupo NLP (Natural Language Processing). 

Uno de los productos resultado de las investigaciones del departamento es el buscador JBraindead: un buscador fuera de lo común que como característica novedosa opta por una aproximación basada en retículos en lugar de jerarquías, lo que facilita la representación de relaciones complejas que impliquen, por ejemplo, herencia múltiple.

Por último, si su interés es el estudio o investigación de los motores de búsqueda, le proponemos las siguientes lecturas y tutoriales:

lunes, 16 de septiembre de 2013

Software de navegación marítima


«La noche del 13 de enero de 2012, un capitán llamado Francesco Schettino, al mando de una mole de 17 pisos y 114.500 toneladas, con 4.200 pasajeros a bordo —entre ellos 3.216 turistas de 60 nacionalidades—, tuvo la ocurrencia de acercarse a la isla toscana del Giglio para que los paisanos de su jefe de comedor disfrutaran de un espectáculo único, pero calculó mal y la nave Costa Concordia encalló, 32 personas murieron y dos continúan desaparecidas.»

Fuente: El País/16/09/2013

La pregunta que debemos hacernos es: ¿se podría haber evitado el accidente mediante un sistema experto que avisara o bloqueara la nefasta maniobra del capitán?

El campo de investigación en software náutico es un tema de plena actualidad, en especial el de la Inteligencia Artificial orientada a la prevención de colisiones entre naves y la conducción automática de barcos. 

Desde la creación del sistema de posicionamiento vía satélite (GPS) y con la llegada en un futuro próximo del sistema de alta precisión europeo de posicionamiento (GALILEO), el software para la orientación de todo tipo de vehículo ha proliferado como producto estrella en las manufacturas de software crítico. En lo que respecta a la navegación marítima existen soluciones de todo tipo: desde software libre hasta complejos productos comerciales. Obviamente, todos estos sistemas de orientación todavía están basados en el conocido GPS. 

Para que se haga una idea de los productos que actualmente se utilizan en la navegación marítima, le proponemos la lectura de las siguientes webs relacionadas con el tema:

Con respecto a los artículos de investigación sobre sistemas náuticos inteligentes, proponemos las siguientes consultas:


Precisamente, España siempre ha sido un referente en la industria astillera, especialmente en la construcción de submarinos, simuladores y barcos para la armada:

En lo que respecta a nuestra Universidad, también se encuentra involucrada en la industria del sector marítimo por medio del Departamento de Informática y Automática (DIA):




jueves, 12 de septiembre de 2013

Las "Newsgroups" de la Escuela, ¿en migración?


Desde la creación del servidor de "news" de la UNED en los noventa, muchos son los compañeros que se han servido de ellas para preguntar sus dudas, intercambiar conocimientos, realizar consultas técnicas y/o académicas, debatir temas importantes o simplemente para "desahogar" sus penas.

Con el auge de las redes sociales como Facebook, Twitter, etc. en donde ya nadie esconde su pudor, los debates y las consultas de la Escuela en las "news" siguen manteniéndose candentes con el mismo buen hacer de siempre y con la colaboración desinteresada de algunos compañeros. 

Aún somos muchos los nostálgicos que reclamamos la continuidad del servicio de "news" de la Escuela, y por supuesto, tenemos el deseo de aglutinar a la mayor parte de alumnos y profesores en un mismo canal de comunicaciones plural y solidario. 

Muchas son las historias y problemas que se han resuelto en ellas desde su creación. Por esto mismo animamos a los compañeros a que se sumen a la iniciativa de preguntar y compartir sus conocimientos en las "news"  para fomentar la puesta en común de comentarios relacionados con nuestros estudios. A este servicio de Internet proporcionado desde la ETSII se puede acceder mediante las siguientes URLs:


pero debes configurar  tu cliente de "news" con el siguiente tutorial:


y por favor, consulta las reglas de uso cuando publiques:

  

Computación de altas prestaciones

Fuente: ibmphoto24/Flickr
La computación de alto rendimiento y paralela se utiliza en una inmensa cantidad de campos donde se requiere resolver problemas de una complejidad muy elevada o de tiempo real. La programación paralela ha abierto una línea de extensa labor investigadora que requiere de centros especializados donde ubicar los "mainframe" o supercomputadores enlazados por una red de alta velocidad.
Las tareas de los científicos que trabajan en esta línea de investigación consiste en aplicar sus conocimientos informáticos y matemáticos a la resolución de problemas orientados a los siguientes ámbitos:
  • Medicina: Sistemas de visión en tiempo real para procesado de imágenes e ingeniería genética.
  • Farmacéutico: Hallazgo de nuevos medicamentos más eficientes y eficaces.
  • Simulación: Requiere de experimentos que utilizan computación a gran escala con la finalidad de generar modelos para la predicción meteorológica y oceánica.
  • Desarrollo industrial: En el campo industrial se requieren de diseños más avanzados para la ingeniería, así como la investigación en Inteligencia Artificial para el reconocimientos de patrones en imágenes. 
En lo que respecta a nuestro país, contamos con una amplia tradición investigadora en sistemas de altas prestaciones. Por este motivo la Red Española de Supercomputación cuenta con los mejores investigadores en el campo y con los siguientes emplazamientos:


Si está interesado en profundizar en la computación y programación paralela de altas prestaciones, puede introducirse en el mundo mediante el siguiente tutorial:

 https://computing.llnl.gov/?set=training&page=index#training_materials

lunes, 2 de septiembre de 2013

Los "rankings" de universidades: una visión crítica

Fuente: European Southern Observatory  (Creative Commons) 

En los últimos años se han puesto de moda los estudios estadísticos sobre "rankings" universitarios. Han sido unas pocas instituciones públicas y principalmente privadas las que se han aventurado a medir de forma cuantitativa el prestigio investigador, docente y el rendimiento académico de nuestras universidades. Pero, ¿qué hay de realidad y de mito tras estos "rankings" de la enseñanza superior?  Es cierto que estos estudios son realizados por empresas e instituciones de cierto rigor científico a la hora de proponer las variables objetivas a considerar, por lo que no es de menospreciar la calidad investigadora de las personas implicadas y las técnicas estadísticas usadas. El problema surge cuando en ellos se consideran factores metodológicos que no son unánimes a todas las universidades, siendo la medida sesgada en favor de aquellas que tienen más volumen de éxito en el conjunto de sus estudiantes y del cuerpo docente. Es obvio que las discrepancias entre "rankings" (tanto nacionales como internacionales) son bastante llamativas, además la falta de aplicabilidad de los criterios a todas las universidades y los datos interpretados según la conveniencia de algunos hacen que ningún "ranking" sea enteramente fiable. En el caso de la UNED, en el que la tasa de abandono oscila en torno al 60-70%, siendo muy pocos los estudiantes que logran titularse con éxito, estos "rankings" no hacen justicia a los parámetros de volumen de alumnos y tasa de rendimiento del conjunto de estudiantes que finalizan sus estudios. En conclusión, la UNED es una institución superior docente que cuenta con unas características de enseñanza, investigación y aprendizaje peculiares (a distancia y mediante Internet) que difiere de los tópicos y baremos aplicados a otras universidades. Es por ello por lo que estos estudios deberían definirse con más rigor científico para este tipo de universidades y considerando las variables plenamente objetivas que son intrínsecas a ellas. Por otro lado los estudios realizados por diversos organismos privados no exponen de forma clara y precisa las técnicas ni las características metodológicas utilizadas en sus estudios, por lo que es muy difícil verificar o corroborar su exactitud.

Finalmente, y citando el artículo de [Martínez Rizo]: «contra lo que pretenden los medios de comunicación que patrocinan muchas de estas iniciativas, los rankings de programas particulares tampoco son apropiados para orientar a los futuros estudiantes en la delicada tarea de escoger la institución y programa en que tratarán de ser admitidos. Si se tiene en cuenta que no existe la mejor universidad ni el mejor programa en absoluto, sino que hay programas más o menos adecuados para ciertos aspirantes, se entenderá que los rankings más conocidos no sustituyen a un buen sistema de orientación vocacional».

Fuentes: