miércoles, 30 de noviembre de 2011

Linked Data en la Biblioteca Nacional Española

El próximo miercoles 14 de diciembre tendrá lugar la presentación del Proyecto de Datos Enlazados en la Biblioteca Nacional Española, que lleva a cabo el Ontology Engineering Group de la Universidad Politécnica de Madrid. Será en el salón de actos de la BNE a las 13.30h

Su proyecto consiste en la transformación de los catálogos bibliográfico y de autoridades de la BNE, que están descritos en el formato Marc21 a su equivalencia en el lenguaje RDF (Resource Description Framework). Es un lenguaje creado por W3C de etiquetado con sintaxis XML para describir recursos web.

Al utilizar el RDF para la descripción de los elementos bibliográficos y de autoridades, estos datos se convierten en Linked Data o datos enlazados. Gracias a la estructura de este lenguaje (sujeto, predicado y objeto) se define el tipo de recurso y el tipo de relación, de forma que los datos descritos se vuelven accesibles en la Web Semántica, y pueden ser enlazados con otros conjuntos de datos descritos en el mismo lenguaje. Esto facilitará la interoperabilidad y la transferencia de información entre sistemas.

Aquí tenéis el enlace a la web del Proyecto de Datos Enlazados de la BNE



lunes, 28 de noviembre de 2011

International Open Data Hackathon

Es la 2ª Jornada Internacional sobre Datos Abiertos, en la que grupos de investigación, desarrolladores, estadísticos, bibliotecarios, y ciudadanos en general, con interés sobre los Datos Abiertos quedan convocados.

Este evento quiere poner en común multitud de ideas para la transformación de datos a cosas utiles. Se quiere  liberar, compartir y reutilizar. Se trata de promover el uso de los Datos Abiertos en cada vez un mayor número de comunidades.
Se quieren compartir las políticas sobre datos abiertos que existen en los distintos estados y paises que acudirán, los estándares de transformación que se están utilizando o los que pueden resultar más útiles, las ideas sobre lo que se podría hacer con los datos y las aplicaciones que sería necesario desarrollar.
En definitiva se quiere aprender más sobre datos abiertos, sobre lo que los gobiernos pueden para compartirlos y lo que las empresas sin ánimo de lucro pueden hacer utilizándolos.
También se pondrá en conocimiento de todos los distintos proyectos que se están desarrollando en las ciudades que tendrán su representación en próximo sábado 3 de dicimebre de 2011 que se celebrará en Madrid en el local ElSite (http://www.elsite.es/), que está en la calle de las Pozas, 2. 28004 Madrid.
Aquí tenéis el enlace al sitio web para más información: International OPEN DATA Hackathon

jueves, 10 de noviembre de 2011

Congreso sobre los Científicos y Humanistas Valencianos del S.XX

Congreso sobre Científicos y Humanistas Valencianos del S.XX, del Instituto Universitario de Investigación "Dr. Viña Giner" de la Universidad Católica de Valencia "San Vicente Mártir" junto con investigadores de la Universitat de València, del Departamento de Comunicación Audiovisual, Documentación e Historia del Arte (DCADHA) Universidad Politécnica de Valencia, de Historia de la Ciencia de la Universidad Miguel Hernández de Elche (UMH) y del Consejo Superior de Investigaciones Científicas (CSIC). con la colaboración del Ministerio de Ciencia e Innovación.

En estas jornadas de trabajo se reunió a los principales analistas internacionales de gestión y tratamiento de la información relacionada con personalidades de las ciencias y las humanidades, pues el contacto colectivo influye en la creación de nuevo conocimiento, así como en su difusión. De esta manera, los conocimientos de un sector se transfieren a su área de aplicación, en este caso al ámbito de la historia de la ciencia de manera que la prosopografía y la biografía se convierten en métodos renovados que contribuyen a crear contenidos para la web semántica.

Permitió compartir experiencias y conocer de primera mano aquellas que están desarrollando. La disparidad de los perfiles que se han diseñado garantiza que se trasfiera a los asistentes la necesidad de hacer aplicable su trabajo. Este tipo de encuentros ayuda a la cooperación entre grupos de trabajo españoles con el resto de científicos extranjeros.

Se ha aplicado una metodología interdisciplinar que permita la identificación, protección y difusión del patrimonio científico y humanístico valenciano reciente como parte de la cultura identitaria de esta Comunidad, y por extensión, de toda la comunidad científica. Para lograrlo, se integran métodos y técnicas relacionadas con la archivística, la documentación científica y las tecnologías de la información.

En su intervención, el ponente José Luis Peset destacó  los puntos fundamentales que debe tener un investigador que se dedique a la realización de biografías puesto que hay que estudiar su vida, su época, su obra…”, para ser capaz de transmitir “una figura, su espíritu, lo que quiso hacer o lo que no pudo desarrollar” Asimismo, “debe disponer de conocimientos sobre la obra del personaje y la época en los que la desarrolló”.

Fernanda Peset manifestó que el proyecto Vestigium funciona como “aglutinante” varios perfiles disciplinares como humanistas, tecnólogos, gestores de información o expertos en ciencias sociales, así como el hecho de que colaboren varias universidades, instituciones y organizaciones.

En estas jornadas se ha puesto de relevancia la importancia que tiene recuperar y poner en valor el trabajo de los grandes científicos y humanistas valencianos. Así, se ha destacado la “metodología interdisciplinar” que “identifica, protege y difunde el patrimonio científico y humanístico reciente, que lo reconoce como parte de la cultura identitaria de esta comunidad y, por extensión, de toda la comunidad científica”.

Los Doctores Rafael Aleixandre (CSIC) y Yolanda Blasco (UV) destacaron la “trayectoria universitaria y social de profesores valencianos” así como los “métodos para el análisis bibliométrico de la actividad investigadora de científicos y humanistas singulares” en sus exposiciones. La biblioteca digital sobre científicos y humanistas valencianos, con la aplicación del caso de “Eduardo Primo Yúfera” fue presentada y se compartieron los elementos más destacados que se han llevado a cabo para su desarrollo.

viernes, 21 de octubre de 2011

Grupo de investigación sobre “Científicos y humanistas valencianos del siglo XX”


El trabajo del grupo sobre “Científicos y humanistas valencianos del siglo XX” se traduce en varias investigaciones

El trabajo que lleva a cabo desde hace varios meses el grupo de investigación sobre “Científicos y humanistas valencianos del siglo XX”, del Instituto Universitario de Investigación "Dr. Viña Giner" de la Universidad Católica de Valencia “San Vicente Mártir”, junto con la Universidad Politécnica de Valencia, y la Universidad de Valencia, se ha traducido en varias investigaciones que han visto la luz en forma de una monografía, artículos en publicaciones científicas, ponencias y comunicaciones en congresos.
El primero de los trabajos, ha sido una monografía titulada “Eduardo Primo Yúfera: un adalid de la ciencia. Vida y producción científica”, desarrollado en colaboración con investigadores de universidades valencianas -Universitat de València, Universitat Politècnica de València- y del Centro Superior de Investigaciones Científicas (CSIC), abarca el estudio biográfico y bibliométrico del científico valenciano, impulsor de la Ciencia y Tecnología de los Alimentos, Eduardo Primo Yúfera (1918-2007). Ha sido publicada hace pocos meses y presentada en el Insituto de Tecnología Química de la Universidad Politécnica de Valencia el pasado día 5 de octubre.
En este estudio se han realizado diversas tareas de investigación como el análisis bibliométrico de las publicaciones científicas del autor, donde se analizan factores como la productividad científica, la colaboración con otros investigadores y el impacto científico de sus publicaciones.

La divulgación científica de los resultados de esta investigación se presentó con dos comunicaciones en  en el VIII Foro sobre la evaluación de la calidad de la investigación y de la educación superior FECIES, celebrado en Santander del 31 de mayo al 3 de junio pasado, tituladas: “Identificación, salvaguarda y difusión en abierto del patrimonio de grandes científicos y humanistas valencianos del siglo XX. VESTIGIUM”,  y “Patrones de actividad científica a través de estudios biobibliométricos: El caso de Santiago Grisolía” 


Por otro lado, el próximo día 2 y 3 de noviembre se celebrarán las 1as jornadas sobre “Científicos y humanistas valencianos del siglo XX” que tendrán lugar el día 2 en la sede "Santa Úrsula" de la Universidad Catíolica de Valencia "San Vicente Martír, y el día 3 en la Facultad de Informática de la Universidad Politécnica de Valencia.

En estas jornadas de trabajo se reunirá a los principales analistas internacionales de gestión y tratamiento de la información relacionada con personalidades de las ciencias y las humanidades, pues el contacto colectivo influye en la creación de nuevo conocimiento, así como en su difusión. De esta manera, los conocimientos de un sector se transfieren a su área de aplicación, en este caso al ámbito de la historia de la ciencia de manera que la prosopografía y la biografía se convierten en métodos renovados que contribuyen a crear contenidos para la web semántica. 

Permitirá compartir experiencias y conocer de primera mano aquellas que están desarrollando otros. La disparidad de los perfiles que se han diseñado garantiza que se trasfiera a los asistentes la necesidad de hacer aplicable su trabajo. Este tipo de encuentros ayuda a la cooperación entre grupos de trabajo españoles con el resto de científicos extranjeros. Teneis más información en congreso Vestigium

sábado, 14 de mayo de 2011

Fesabid y I Jornades Valencianes de Documentació


Este post es para comentaros dos jornadas que se celebran que pueden resultar muy interesantes para ponernos al día de los temas más actuales relacionados con nuestro ámbito de estudio y de trabajo.

En primer lugar la que se celebra este mes: 
Fesabid 2011: Jornadas Españolas de Documentación  
Este año tienen lugar en Málaga, los días 25, 26 y 27 de mayo unificadas con EBLIDA-­‐NAPLE Conference 2011, por primera vez en España, y las XVI Jornadas Bibliotecarias de Andalucía. Este año se trata de unas jornadas muy interesantes porque reúnen a profesionales nacionales e internacionales gracias a la EBLIDA-­‐NAPLE Conference de la Ligue des Bibliothèques Européennes de Recherche



En segundo lugar, por primera vez surgen en nuestro territorio las 

Se celebrarán aquí, en la Universidad Politécnica de Valencia y la Universidad de Valencia. Tendrán lugar el 20 y 21 de Octubre y lo organiza el Col.legi Oficial de Bibliotecaris i Documentalistes de la Comunitat Valenciana. 
El título es "Cap a la Globalització de la Informació" y contará con cuatro bloques temáticos: 

1.- Parlant el mateix idioma: dedicado a la normalización y los estándares
2.-Producció digital: nuevos modelos de negociovinculados al aspecto digital de nuestra profesión.
3.- Interoperabilitat: la interoperabilidad entre las instituciones de gestión de información pública.
4.- Adaptant-nos al futur: canvis en la professió: relacionado con las nuevas competencias a las que nuestra profesión se tiene que adaptar debido a los cambios tecnológicos.

Está abierto el plazo de presentación de comunicaciones y poster para todo el profesional de la información que esté interesado en compartir su experiencia o conocimiento. ¡Ánimo!


martes, 3 de mayo de 2011

Descripción normalizada de la información en Internet II

Ampliando la información del post anterior, a continuación la bibliografía de los estándares más utilizados para normalizar la información en Internet:

- Identificación y localización de documentos web:

- Descripción de contenidos web:


-  Descripción de metadatos

      viernes, 22 de abril de 2011

      Descripción normalizada de la información en Internet


      Se realiza una búsqueda en Dialnet con la siguiente ecuación de búsqueda: Normalización AND Web  y los resultados recuperados han sido 36 documentos, de entre los que se ha seleccionado el siguiente como artículo que describe la asignatura: Localización, identicación y descripción de recursos web: tentativas hacia la normalización Comunicación publicada en las Jornadas Españolas de Documentación (7. 2000. Bilbao). Bilbao: Universidad del País Vasco, FESABID, 2000, p. 221-231.
      Eva María Méndez Rodríguez (Universidad Carlos III de Madrid)
      José Antonio Merlo Vega (Universidad de Salamanca)

      Resumen:
      La normalización en el ámbito de la documentación y la biblioteconomía queda justificada por dotar de calidad y consistencia a la información, por compatibilizar estructuras de datos y por facilitar la recuperación y el intercambio de información.

      En este artículo se analizan distintos estándares de normalización de la información en el ámbito de la Web, para la identificación de los recursos, su descripción, acceso y referencia, puesto que Internet es un medio dinámico en el que la información no está organizada en torno a ningún criterio de gestión documental, y son múltiples las tipologías y materias que se pueden encontrar.

      Estas características propias de la documentación en un entorno Web suponen una problemática en torno a la ubicación, a la descripción interna y a la descripción formal de todas estas tipologías documentales, de forma que se hace un repaso a las distintas normas que se han desarrollado para cada uno de estos problemas.

      Para la identificación y localización documentos Web los estándares que existen son:

      -          Uniform Resource Identifiers (URI): es una cadena compacta de caracteres con sintaxis controlada para identificar de forma única un recurso físico o abstracto.

      -          Uniform Resource Name (URN): Su sintaxis se estructura en tres bloques separados por dos puntos: el identificador URN es el código que indica el tipo de localizador, el NID o nombre de la categoría en la que se incluye el documento que se pretende identificar y el NSS o cadena que específica la ruta y el documento en cuestión. Cabe destacar que este sistema trabaja a la par de Uniform Resource Characteristics (URC), esquema para la descripción de metadatos.

      -          Uniform Resource Locator (URL): es el sistema de acceso a los documentos común en la World Wide Web e indica el protocolo a través del que se localiza el documento, el servidor en el que está alojado, el directorio en el que se encuentra  y el nombre y la extensión del archivo.

      -          Persistent Uniform Resource Locator (PURL): es un URL con redireccionamiento automático cuando un documento cambia de dirección. Tiene la misma estructura que un URL aunque funciona como intermediario entre la dirección antigua de un documento web y la nueva dirección.

      -          Digital Object Identifier (DOI): es un código de identificación única y persistente de carácter comercial que se forma de un prefijo que identifica el directorio en el que se encuentra el documento y un sufijo en que se expresa el código del objeto digital.


      Para la descripción de contenidos web:

      -          Dublin Core (DC): es un estándar de metadatos para describir el contenido de  documentos digitales para facilitar la interoperabilidad semántica en la web. Son quince elementos opcionales y repetibles: siete elementos de contenido (title, subject, description, source, language, relation, coverage), cuatro elementos con la información relativa a la propiedad intelectual (creator, Publisher, contributor, rights), y cuatro elementos de identificación (data, type, format, identifier). Este estándar es el más utilizado en para la catalogación de recursos web en bibliotecas digitales ya que permite la inteoperabilidad.

      -          Text Encoding Initiative (TEI): cuyo propósito originario era la codificación de textos literarios. Se trata de una definición del tipo de documento DTD formada de SGML, lenguaje de marcado para la indización y el intercambio de información textual. En la cabecera de su esquema (TEIH) permite definir una descripción bibliográfica detallada.

      -          Resource Description Framework (RDF): es el estándar más importante para la descripción de contenidos web. Es un lenguaje para la definición de ontologías y metadatos en la web, para expresar los objetos y sus relaciones. La construcción de este lenguaje es en sentencia SUJETO-PREDICADO-OBJETO.
       
          En el que sujeto es el recurso, el predicado es un arco que representa las propiedades o la relación. El objeto es el valor de la propiedad o el otro recurso con el que se establece la relación. Utiliza XML para proporcionar un marco estándar para la interoperabilidad entre distintos modelos de metadatos.

      -          CIMI (Computer Interchange of Museum Information) para la información de museos digitales
      -          Federal Geographic Data Committee (FGDC) el estándar de contenido para la información digital geoespacial
      -          EAD (Encoded Archival Description) para la información archivística


      Relación entre el artículo seleccionado y el contenido de la asignatura:

      Este artículo está estrechamente relacionado con la asignatura de descripción normalizada de la información porque en ésta se pone en conocimiento del alumno la importancia y la necesidad de  utilizar estándares para permitir la interoperabilidad entre distintos sistemas tecnológicos para la transmisión de información, para su almacenamiento y muy importante, para su recuperación.
      También, tanto el artículo como la asignatura, señalan los estándares y normativas nacionales e internacionales para la descripción de documentos digitales así como las instituciones y organismos de los que emanan.
      Otro aspecto común en la asignatura y el artículo es que la normalización dota a la información de calidad y consistencia.

      martes, 12 de abril de 2011

      Tutorial con Screenr para utilizar Refworks como gestor bibliográfico

      Refworks es un gestor bibliográfico en línea, gratuito, que nos puede resultar muy útil para organizar de forma normalizada todas aquellas publicaciones que vamos acumulando búsqueda tras búsqueda, en bases de datos, catálogos de bibliotecasm repositorios... y que utilizamos para hacer nuestros trabajos de máster o de investigación. Porque esta bibliografía si la utilizamos  hay que citarla, y citarla de forma normalizada, y Refworks permite hacerlo y elegir la norma de descripción bibliográfica que mejor se adapte a nuestros propósitos.

      Os presento un sencillo tutorial que he creado con la aplicación on line Sreenr, que explica como utilizar Refworks para importar registros, modificarlos y organizarlos, de forma que creamos nuestras carpetas de favoritos disponibles para citar en cualquier trabajo.

      domingo, 3 de abril de 2011

      Internet: Redes Sociales Científicas


      Las redes sociales científicas son formas de interacción social para el intercambio dinámico de materiales, conferencias, discusiones, entrevistas... todo un conjunto de información científica, entre investigadores y productores de información. El propósito de estas redes sociales científicas es el de almacenar y distribuir conocimiento científico a través de las tecnologías de la comunicación digital, de un modo menos formal que en las publicaciones científicas puesto que no tienen que pasar una evaluación ciega o por pares.

      Son sistemas abiertos, en construcción y evolución continua, en los que se involucran conjuntos de investigadores que se identifican en las mismas necesidades y problemáticas, en áreas de conocimiento específicas. Así como también permite entrar en contacto con  quienes tienen una visión diferente en esa misma temática.

      Actualmente existe una gran variedad de redes sociales científicas y redes académicas. Un científico español que quiera tener una mayor visibilidad, tiene que seleccionar aquellas redes sociales que pertenezcan a grandes editores puesto que son las que recogen una mayor producción y a los productores más citados.  Otra opción es unirse a redes de áreas de conocimiento específicas, de forma que pueda estar actualizado en las áreas que le interesen, y para colaborar con expertos de su misma especialidad. 


      En el cuadro se relacionan algunas redes multidisciplinares y específicas de Medicina y Biomedicina.

      De todas estas redes, las siguientes son las que ofrecen valores añadidos para analizar la producción científica y para dar mayor visibilidad y acceso al trabajo científico: por ejemplo, Elsevier, que cuenta con una red científica para Biomedicina: BiomedExperts y otra multidisciplinar que es 2collab.

      BiomedExperts ofrece como valor añadido que permite generar y visualizar gráficos de redes de coautorías. Esta red permite visualizar la actividad investigadora de expertos de todo el mundo.

      Sus cifras son: perfiles de investigación de unos 1,8 millones de investigadores de ciencias de la vida, 3.500 instituciones de unos 190 países. Además, cuenta con dos posibilidades para inscribirse, ambas de forma gratuita: Si han publicado al menos tres artículos en los últimos diez años que han sido indexados en la base de datos Pubmed, puede validarse un perfil de experto. Si no, puede inscribirse, buscar y enlazar con los investigadores que el usuario conozca.

      2collab ofrece almacenar, clasificar y gestionar los los recursos de Internet: artículos de investigación, enlaces, sitios web... Permite al usuario compartir con las redes existentes o crear grupos en torno a un tema concreto. Como valor añadido ofrece un formulario de discusiones para comunidades específicas o abiertamente con la comunidad científica en general.

      Para los expertos en Biomedicina también existe Scientist Solutions del National Center for Biomedical Information. Principalmente destaca sus foros de discusiones, abiertos para toda la comunidad científica y organizado por categorías muy específicas. Como valores añadidos proporcionan una base de datos con protocolos y normas. Además de un listado de eventos como conferencias, seminarios, clases, y otro de blogs.
      Y para Medicina y ciencias relacionadas hay que desatacar Epernicus, Asklepios de la Asociación Médica Canadiense, y Sermo, que es exclusiva para médicos.

      Ejemplos de redes sociales con cobertura multidisciplinar son ResearcherID, publicada por Thomson Reuters, que como valores añadidos ofrece la normalización de autores identificandolos de forma únivoca con la asignación de un identificador único junto con indicadores de citación (distribución de citas por año, el total de veces citado...) y la posibilidad de generar las redes de colaboración de autorías.
      Mendeley que cuenta con las características propias de una red social, y también se constituye como un gestor bibliográfico, con el que gestionar las referencias bibliográficas de forma automática. Además permite importar documentos desde otros softwares. Como valor añadido ofrece rankings de autores, artículos, y publicaciones más leídas. Es una herramienta para  encontrar papers relacionados con los que cada usuario lee.

      Research Gate que permite la descarga de artículos científicos a texto completo y crear redes de autorías. Sus cifras son: alrededor de 800.000 científicos y 192 países, incluyendo todas las disciplinas. Proneteos, es multidisciplinar y está dirigida a estudiantes y académicos, tiene unos 750 miembros. Cuenta con gran cantidad de disciplinas incluyendo las Ciencias de la Información.

      Otra opción para tener gran visibilidad, es formar parte de una red social que esté creada por alguna publicación científica con gran factor de impacto, como por ejemplo Nature Network  o Journal of Visualized Experiments (JoVE) una publicación científica online cuya área de conocimiento es la Biología.


      En conclusión, las redes sociales científicas, dirigidas a profesionales y estudiantes, constituyen otro medio de difusión de la producción científica, una forma de establecer contacto con otros  estudiantes o expertos del mismo área de conocimiento y de conocer y debatir sobre las tendencias más actuales en áreas de trabajo específicas. 

      Estas plataformas digitales favorecen la creación de redes de coautorías y aportan herramientas de medida para la ciencia, propias de la bibliometría como por ejemplo los indicadores de citación. Hay que destacar que los usuarios deben tener en cuenta criterios como la disciplina a la que perteneces para elegir la red social que mejor se adapte a ellos.

      lunes, 21 de marzo de 2011

      QR


      Microformatos: calendarios en Internet

      preview

      March 14th 10am : 20th 12pm, 2011 : Vacaciones de Fallas at Granada
      Este es el calendario de mis vacaciones de Fallas. El lugar de destino ha sido Granada. Entre otras actividades he asistido a un seminario sobre Bibliometría.
      This hCalendar event brought to you by the hCalendar Creator.

      viernes, 4 de marzo de 2011

      Jornada sobre evaluación de la ciencia y la comunicación científica


      ¿cómo se mide la ciencia? ¿qué es la ciencia de la ciencia?
      La ciencia de la ciencia es la convergencia de un conjunto de disciplinas dirigidas todas ellas a un objetivo común que es el estudio del comportamiento de la ciencia. La Bibliometría como disciplina  se encarga de medir la ciencia y su comportamiento a través de las publicaciones científicas, es decir, los aspectos cuantitativos de la producción y el consumo de estas publicaciones.


      En España la Bibliometría como subdisciplina de la Documentación, fue introducida por el profesor José María López Piñero con su monografía El análisis estadístico y sociométrico de la literatura científica (1972) y situada en el contexto de la ciencia de la ciencia, y definida como: “el análisis del tamaño, crecimiento y distribución de la bibliografía científica, por una parte, y el estudio de la estructura social de los grupos que la producen y la utiliza, por otra”.
      La infometría es otra subdisciplina que se ocupa de los aspectos cuantitativos de la información independientemente de su forma. Estudia las regularidades cuantitativas del uso y producción de los procesos informativos, y describe los modelos de comportamiento de la información en general.
      La cienciometría está encargada de los aspectos cuantitativos de la ciencia como actividad social. Es una aplicación de la bibliometría al estudio social de la ciencia.
      Y por último la Cibermetría y la webmetría, que como sus nombres indican hacen referencia al análisis, estudio y medición cuantitativa de la información científica en el entorno digital o ciberespacio.
      En el III Seminario EC3 sobre evaluación de la ciencia y la comunicación científica el 16 y 17 de marzo de 2011 en la Facultad de Comunicación y Documentación de la Universidad de Granada tendremos oportunidad de escuchar a los expertos sobre la investigación más reciente llevada a cabo en estas áreas.  El día 16 presentarán algunas de sus tesis y trabajos recientes, y el día 17 su programa está basado en:
      • rankings de universidades, donde contaremos con la presencia de los ya conocidos Emilio Delgado, Francisco Herrera e Isidro Aguillo El enlace al ranking ISI: http://www.rankinguniversidades.es
      • indicadores y metodología cibermétrica, Mike Thelwall
      • evaluación en Ciencias Sociales y Humanas. Elea Giménez-Toledo  Ferrán Mateo de Dialnet
      Son jornadas gratuitas, os dejo el enlace a la web http://seminarioec3.wordpress.com/



      martes, 22 de febrero de 2011

      QR

      ¿Qué son? ¿para qué sirve? ¿quién lo ha inventado?

      Podría decirse que es como un código de barras, se trata de una matriz de puntos que contiene información. A través de un lector, como por ejemplo un móvil con cámara de fotos y la aplicación para su lectura, que suele ser de software libre. El móvil captura la imagen y la transforma en la información que contiene, y esta puede ser un enlace a una web, una foto, un video, un texto...

      Mientras que el código de barras tradicional es unidimensional, los códigos 2D son un patrón de líneas horizontales y verticales que almacenan gran tipología de contenidos. Los QR o quick response code son código de respuesta rápida que se han desarrollado en Japón por la empresa Denso-Wave desde 1994. 
       
      En Japón se utilizan de forma cotidiana, principalmente en publicidad, pero también en el mundo laboral, en las webs de las empresas, para las tarjetas de visita, para mostrar la ubicación de un restaurante o un comercio en un mapa. Para acceder a más información de forma inmediata desde la calle y con tu teléfono móvil.

      También para descargar música, para ver el trailer de una película o ver partidas completas de ajedrez. Se pueden enviar mensajes de texto de forma automática al móvil que lee el QR, o enviar un e-mail. 
       
      Además hay empresas como vueling que ya lo utilizan en las tarjetas de embarque, y otras en las entradas de espectáculos, y los ayuntamientos para información la turistica de la ciudad, como por ejemplo en Kyoto.

      ¿qué más utilidades? Las que tú quieras o puedas inventar.
      ¿te gustan los colores? También puedes crear los QR en color. Existen páginas web gratuitas para generar códigos QR.

      • Hay que destacar el gran impacto que Denso Wave ha producido al saltar el obstáculo de los derechos de autor y al dejar que de forma gratuita multitud de empresas puedan adaptar los lectores de QR a sus tecnologías móviles y un gran número de webs faciliten la producción de QR a los usuarios de forma gratuita.

      miércoles, 9 de febrero de 2011

      Internet, comunico luego existo

      Es el título del XIX Foro Universitario Juan Luis Vives que se celebra en Valencia del 14 de febrero al 24 de marzo y que este año tratará temas de comunicación a través de Internet y de las nuevas tecnologías.
      Aspectos muy vinculados a los contenidos de algunas asignaturas que tratamos en el Máster CALSI. Especialmente los temas de redes sociales y las herramientas para desarrollarlas.
      Este foro parece hecho a medida para los estudiantes del Calsi ya que se tratarán temas muy actuales en los que nos vemos implicados directamente, y de los que tenemos que saber. Por ejemplo, en la creación de blogs, en fomar parte de redes sociales, y todo para conocer las herramientas disponibles en Internet para comunicarnos de forma inmediata, desde cualquier lugar del mundo y con una gran comunidad de gente.

       Otro aspecto importante en esto de las comunicaciones publicas o comunicaciones visibles para un gran número de receptores, por supuesto a través de Internet, es el aspecto económico que tiene. Aunque a primera vista la comunicación que se produce a través de redes sociales consiste en comunicar, en mostrar aspectos individuales a colectivos de receptores, tiene también una vertiente económica o empresarial. Y esto es porque estos servicios constituyen un negocio en la Web. Un negocio en el que los usuarios consumidores de información son los propios productores. Es un servicio que genera beneficios nutriendose de la labor que realizan los propios usuarios. Y esta tendencia de negocio seguro que ha sido analizada por los expertos pertinentes y se refleja de alguna manera a lo largo de este foro, pues muchos de los participantes son expertos en marketing, en web, en tecnologías de la información y la comunicación, en empresas en Internet... También contaremos con la presencia de profesores de la universidad.

      Seguro que nos aporta una visión más amplia de los aspectos de la comunicación a través de Internet.

      Un elemento a tener en cuenta es que la entrada es libre. 
      Tendrá lugar en el Salón de Actos de la Concejalía de Juventud
      C/ Campoamor, 91, 46022, Valencia.
       Aquí os dejo el enlace a la programación completa

      lunes, 7 de febrero de 2011

      Bases de Datos para hacer la tesina

      Los SGD: Sistemas de Gestión Documental son programas que facilitan a los usuarios el acceso a los registros que contienen las bases de datos documentales a través de herramientas de recuperación de información y de control del vocabulario. Son la interfaz con la que el usuario interroga a la base de datos para recuperar la información que requiere.

      Para los estudiantes del CALSI, estos enlaces nos pueden resultar útiles para buscar la bibliografía para hacer la tesina:

      Bases de datos con acceso a texto completo en formato electrónico:
      BBDD con tesauro y acceso o ayuda a localizar el texto completo:



      La base de datos ISI de Web of Knowledge del Sistema Español de Ciencia y Tecnología, sólo se puede acceder desde los terminales de  las universidades españolas:



        Bibliotecas digitales

        Las bibliotecas han sido a lo largo de la historia de la humanidad el lugar de conservación de la información y el conocimiento humano. Han contribuido a la labor de preservación del saber y han servido a la sociedad para satisfacer sus necesidades de información. Han sido la herramienta básica para la gestión de la información en el mundo académico, en la enseñanza, en la investigación, en el desarrollo de la cultura y también del entretenimiento.

        Actualmente, continúan esta labor adaptadas al nuevo mundo de las tecnologías de la información y la comunicación. La digitalización de los fondos bibliográficos junto con Internet está permitiendo el acceso a los grandes depósitos de información desde cualquier lugar del planeta de forma remota. Esto son las bases de datos bibliográficas, los repositorios y las bibliotecas digitales.

        Algunos ejemplos que presentan el documento completo:

        Sistemas semánticos:

        sábado, 22 de enero de 2011

        La neutralidad en la red

        La neutralidad en la red consiste en una propuesta regulativa que tiene por objeto sancionar la discriminación que se podría llevar a cabo por los dueños de las redes en Internet (Clunes, 2009). Es decir, que las aquellas empresas con las que se contrata la conexión a Internet, no interfieran ni limiten el ancho de banda contratado en función de los contenidos a los que el consumidor accede en la red.
        Por ejemplo, si un usuario utiliza cierta aplicación de otra empresa con la que la compañía de Internet tiene un contrato, su conexión de banda ancha no se verá afectada y funcionaría de forma ágil. Sin embargo, si el usuario utiliza una aplicación de una empresa distinta, la compañía dueña de la red de Internet podría limitar el ancho de banda de conexión a la red. 
        “La comunidad de Internet considera que la no aplicación del principio de neutralidad dividiría la red en dos -una para los que puedan costearse los servicios adicionales y otra para los que no puedan hacerlo- y ha solicitado que la ley adopte una versión más laxa del principio de neutralidad que proteja la libertad del usuario de acceder a los servicios que desee con el ancho de banda contratado” (Alonso Espinosa, 2009).

        Porque actualmente el cumplimiento de la neutralidad no está sujeto a ningún tipo de reglamento ni normativa nacional ni tampoco internacional. Es importante que se cree un texto legal que ampare a los consumidores si en algún momento se da ese abuso por parte de alguna empresa.
        La Comisión Europea insiste en neutralidad como elemento de garantía para la existencia de competencias en el mercado de las comunicaciones electrónicas, no obstante sin llegar a tomar decisiones legales. Por ahora Chile ha sido el primer país en aprobar la ley de la neutralidad en la web en el congreso.

        En España el Senado aprobó en diciembre de 2010 un texto en que se defendía la necesidad de una regulación e instaba al poder Ejecutivo a llevarla a cabo, según publicó el país (http://www.elpais.com/articulo/Pantallas/Senado/defiende/Red/neutral/elpepirtv/20101202elpepirtv_2/Tes).

        De modo que es muy importante que se respete la neutralidad en la web para que las empresas no abusen ni manipulen el acceso a los servicios que los usuarios pueden utilizar libremente y los orienten hacia otros de los que ellos sean económicamente beneficiarios. Porque esto puede suceder sin que los consumidores sean conscientes de que ocurre, debido a la ausencia de alguna normativa legal que lo regule. Y porque Internet ha constituido un avance en la forma de transportar datos, pero con independencia del contenido transmitido y así debería continuar siendo.

        • Clunes, A. (2009) El Principio de Neutralidad en la Red en el Ordenamiento Jurídico Chileno En: Revista de Derecho Informático. http://www.alfa-redi.org/rdi-articulo.shtml?x=16092
        • Alonso Espinosa, C. (2009) La información en la Red y el principio de neutralidad tecnológica: la libertad de expresión y la difusión de información administrativa. En: Revista Derecho del Estado nº 22

        El fracaso en la web 2.0

        Como caso contrario propongo catódicos, como ejemplo de fracaso en la web 2.0. Era una web muy esperada por un gran número de usuarios potenciales, que además, cumplía con algunos de los más importantes puntos de O'Reilly para que un negocio 2.0 tenga éxito. Su contenido eran series de televisión, se podían visualizar en línea, descargar y comprar a través de Amazon.

        En 2007 salió una versión Beta cerrada que gustó a los usuarios que tuvieron la suerte de ser seleccionados para participar de ella. En diciembre de ese mismo año se abrió el acceso a todo el mundo. En 2009 todo lo que existe sobre ella son comentarios sobre su clausura.

        La web contaba con elementos propios de una 2.0 en relación a que los usuarios colaboraban aportando conocimientos o experiencias propias: podían contribuir en la mejora del sitio proporcionando enlaces a otras series de las que no disponían, creando y caracterizando sus propios perfiles, y compartiendo información relativa a los contenidos que pudieran ser interesante para otros usuarios. 

        Entonces ¿por qué fracasó? ¿Se abandonó el proyecto? ¿Dejó de tener una mejora continuada? Elementos clave para asegurar la continuidad de un negocio web 2.0. ¿La ausencia de publicidad contribuía a no tener beneficios económicos? ¿fueron cuestiones de derechos de autor lo que llevó al cierre?

        viernes, 21 de enero de 2011

        El éxito de la web 2.0

        La clave del éxito de sitios web 2.0 radica en los usuarios y en su participación. Los usuarios son consumidores de información pero también constituyen un gran foco de producción de contenidos. Los propios usuarios que hacen uso de la información publicada se sienten que forman parte del sitio, de la “comunidad”, colaborando en la elaboración de contenidos del sitio web, ya sea publicando información, fotos, vídeos, archivos de audio, etc.

        Otro motivo de éxito es que la web se consolida como una plataforma de fácil uso que pone a disposición de millones de personas una gran variedad de herramientas  con las que manejar y modificar contenido, para que los usuarios sientan que forman parte de “ello” y que colaboran con sus aportaciones. Si una nueva web se basa en compartir contenidos está encaminada al éxito. Ha sido el caso de Panoramio. Creada en 2005 y tras su éxito, comprada por el gigante Google en 2007. También es el caso de Tagzania,  creada en 2005 y que del mismo modo se apoya en el software de google earth.



        Esta empresa, Tagzania, ha sabido mantenerse satisfactoriamente en la red porque continúa realizando mejoras y aportando nuevos servicios a los que ya ofrecen, tales como un sistema de feedback con los usuarios, la posibilidad de personalizar elementos, o modificar y añadir objetos en la interfaz por petición de los usuarios. Es decir, que los propios consumidores de la web pueden aportar ideas para realizar cambios en el servicio, de forma que se sienten parte integrante del servicio que utilizan. Lo que O'Reilly nos define como aprovechamiento de la inteligencia colectiva.

        Otra clave del éxito de estas webs es que han sido constituidas como mashup, una aplicación híbrida cuyo contenido se obtiene de varias fuentes externas al sitio. Utilizan una interfaz sencilla pero se nutren de datos de recursos de otras fuentes para ofrecer funcionalidades de valor añadido y con las que consiguen elaborar un sitio web más completo.