viernes, marzo 27, 2009

Usabilidad y ontologías: Nuevo paso en la evolución de la semweb de la mano ...

Aunque debería ponerlo en la de web3.0

 
 

Enviado por luishernando a través de Google Reader:

 
 

vía El caparazon de dreig el 19/03/09

Me entrevistaban el otro día acerca de la web 3.0, la web semántica y me resultaba difícil, a pesar de la experiencia en varios talleres sobre el tema, acercarla al usuario sin mencionar la primera aplicación que se ha encargado de ello: Twine.

Quería dejaros, además de la noticia sobre este nuevo e importante desarrollo, algunas de las cosas que les comentaba:

Sobre si hay empresas trabajando hoy en la construcción o desarrollo de la web 3.0….

"Muchas empresas trabajan para la web semántica y pueden forzar a Google (elemento imprescindile para convertirla en "mainstream") a reconocer que la adopta o adoptarla en algunos puntos.  Twine, una aplicación que está haciendo de algún modo de puente hacia esta (ya es casi tan popular como delicious), está a punto de lanzar un servicio para hacer más fácil la escritura de datos semánticos (ontologías). Otras empresas como Hakia o Yahoo llevan ya tiempo incorporando todo esto a su buscador…. y Kumo, el nuevo buscador que lanzará este año Microsoft y que puede suponer una seria competencia para Google, adoptará, además de mecanismos propios de la búsqueda vertical y sintáctica, elementos de la semweb."

Sobre si la web semántica sustituye a la actual….

"La web semántica es una capa añadida a la web actual, no la sustituye. Añade significado visible a los buscadores que mejora la eficiencia, la experiencia de usuario de la web, pero en cuanto a lo formal, el diseño de lo que vemos actualmente no va a cambiar demasiado."

Sobre el porqué de la no adopción o la adopción partcial por parte de algunos buscadores, de la semweb:

"La construcción de ontologías (lenguajes, algoritmos que dirían a los ordenadores cuándo una cosa es un lugar, una persona, un evento, una organización, qué relaciones tiene con otras cosas, qué componentes la integran, etc…) es compleja y no existe hoy ningún buscador que pueda ser demasiado preciso en todos los ámbitos de conocimiento. Mientras no estén desarrolladas todas las ontologías, tendrán que combinar, como lo hará Microsoft, distintos sistemas."

Como idea general, es una web más eficiente, más adaptada a nuestro lenguaje natural como humanos, más independiente de nosotros. (Tenéis en Presentación: Construyendo entre todos la web semántica. un buen tutorial básico para su comprensión)

Pero vayamos a la noticia que ha motivado este post: Twine, que parece que está creciendo hasta el punto de aproximarse a la popularidad de delicious, prepara una herramienta "usable" para la creación de ontologías, base para asegurar la eficiencia de la web semántica.

Hemos escrito mucho aquí acerca de Twine. Su bookmarklet, que acaba de mejorar, quizás sea su característica más popular. Con un solo click en páginas con microformatos adecuados (u otros marcadores semánticos) se etiquetan de forma automática los contenidos, clasificando Twine cada concepto clave según sean personas, lugares y otros tipos de información para mejorar su eficiencia como portal de búsquedas y recomendaciones afines a nuestros intereses.

El ahorro de tiempo y la precisión (en inglés) suponen, respecto a Delicious, una importante ventaja y así parecemos haberlo valorado los usuarios:

Según Nova Spivack en RWW, Twine, si sigue creciendo al ritmo actual, habrá sobrepasado a Delicious, una de las herramientas fundamentales de la web 2.0 en verano de este mismo 2009.

Sobre la nueva aplicación, que será lanzada, previsiblemente, este año, es destacable que se lanzará con licencia Open Source, así como que las ontologías creadas no trabajarán únicamente en Twine sinó que podrán ser utilizadas por cualquier aplicación.


ontologysite

La complejidad, el trabajo que supone crear ontologías (según Wikipedia son la formulación de exhaustivos y rigurosos esquemas conceptuales dentro de uno o varios dominios dados con la finalidad de facilitar la comunicación y la compartición de la información entre diferentes sistemas y entidades), hace que a día de hoy sean aún pocas las creadas, la mayoría en temas de tecnología)

La dificultad de semantización de los contenidos es, como veíamos, uno de los principales argumentos de Google para la no implantación de tecnologías semánticas en su buscador. Así, herramientas usables para crearlas podrian cambiar de forma radical este escenario, suponiendo un paso importante en la evolución de la web semántica.

No será la primera en ese sentido: Protege o CmapTools Ontology editor, que parte de la idea de los mapas conceptuales para ayudar a la edición de ontologías llevan tiempo trabajando. También Microsoft, que parece que apuesta desde hace tiempo como ventaja estratégica por la web semántica, anunciaba hace poco un nuevo complemento de semantización para Word 2007 que permite a los autores anotar palabras o frases con términos definidos en ontologías externas.

Pero si esta promesa de Twine es capaz de trabajar de forma tan intensa por la usabilidad como lo ha hecho la firma hasta hora con su aplicación para redes de interés, creo que puede acelerar de forma significativa la evolución de la web.

Os dejo, para finalizar, el usuario de El caparazón en Twine.


 
 

Cosas que puedes hacer desde aquí:

 
 

Facebook y Twitter: Convergencia y proceso de apropiación en las Redes sociales

Caparazón

 
 

Enviado por luishernando a través de Google Reader:

 
 

vía El caparazon de dreig el 22/03/09

De Facebook incluso hablan algunas empresas y todos, "visitantes" y "residentes digitales". De Twitter hablamos (mucho) los "residentes", unas pocas empresas, gabinetes de prensa y pronto también, a juzgar por su crecimiento en los últimos tiempos (según datos de Nielsen, los visitantes únicos de Twitter.com se incrementan en un 1,382 por ciento cada año, desde los 475,000 en Febrero de 2008 a los 7 milones en Febrero de 2009, situándose como el sitio comunitario con mayor crecimiento registrado), el resto de la población con acceso a internet.

El 2.5% de la población mundial está en FB. Y eso, como comenta Alejandro Piscitelli, cuyo proyecto Facebook inspira en parte este trabajo, trasladado a un 5% o 10% de la población (mas del 15% en USA), ya no trata sobre una muestra o un subconjunto de la población sino del universo total.

No en vano diría recientemente Danah Boyd que las redes sociales están aquí para quedarse. La web 2.0 no solo es para adolescentes, ni un fenómeno pasajero, como parecen entenderlo quienes no se la están tomando en serio o siguen temiéndola por cuestiones de privacidad o seguridad .

  • UNA SOLA CULTURA (la de la persuasión) PARA LAS REDES SOCIALES

Facebook, Twitter son dos redes aparentemente distintas que, en mi opinión y a pesar de haber nacido con muy distintos preceptos, parecen tender a la convergencia hoy, entre otros, por un motivo fundamental: la apropiación por parte de las personas de las Nuevas Tecnologías, que termina por adaptarlas, si quieren triunfar, a nuestras propias necesidades y usos.

Lo dicen, en otros términos y desde distintas perspectivas tanto David Armano ("las ideas relativas a comportamientos llevan a la innovación") como B.J.Fogg, uno de los líderes mundiales en captología (el poder persuasivo de la computación): Facebook si bien no hace nada nuevo, integra 6 funciones en distintas modalidades de comunicación e interconexión entre la gente. Experiencia persuasiva, estructura automatizada, distribución social, ciclos rápidos, enormes grafos sociales e impacto mensurable. Su principal hipótesis de trabajo, que creo que podríamos trasladar a Twitter, es que Facebook haría posible nuevas formas persuasivas, de motivación. Así, todo estudio de Facebook deberia verse pues, también como un capitulo en la psicología de la persuasión.

Andaba leyendo, reflexionando sobre todo ello, cuando este twitteo de @ignacionacho confirmaba mi hipótesis:

"ayer descubrí que @Yoriento y @seniormanager son personas físicas, no meros entes dos punto cero".

También en Twitter, YA, somos reales. Y es que a pesar de haber nacido para distintos públicos, con distintas funciones y con distintas estrategias de implantación, negocio, etc…, FB y Twitter cada día suponen en menor medida las distintas culturas de las que hablamos en su momento y tienden a converger en tipos de usos, usuarios y funciones.

Incluso va dejando de ser cierto aquello que concluíamos en una reciente conversación: FB, que construíamos en principio según hubiésemos conocido en tiempos remotos a nuestros contactos,  mira al pasado. Twitter, que construimos según pensemos que nuestros "following" van a aportarnos interesantes ideas y enlaces, al futuro.

Todo ello cobra sentido según la siguiente hipótesis, a la que también apuntábamos hace tiempo:

  • La experiencia de FACEBOOK COMO proceso de EVANGELIZACIÓN DIGITAL:

Hablábamos hace un tiempo, refiriéndonos a FB  y Twitter (Facebook, twitter, dos formas de entender la red) de 2 modelos de negocio, 2 formas de entender, 2 formas de vivir la red. La idea principal era que Facebook, nacida para un target poco habituado a lo digital, se establecía como red social en base a distintas metáforas de lo real. Twitter, en cambio, no necesitaba de "florituras" y era tomada por usuarios "geek", navegantes habituales de la red (residentes digitales) como red de interés en la cual añadir contactos, no según si los conocíamos o no en la vida real, sinó según nuestra coincidencia con los temas que trataban.

Dicho en otros términos, Facebook, la "red de las caras", era una red mucho más fiel a lo que tradicionalmente podemos entender como red "social". Estaba, "a un solo paso de la realidad". Sería un entorno cuyo éxito residía en haber sabido adaptarse y evolucionar a la medida de la alfabetización digital de sus usuarios.

Leo hoy una idea similar: en palabras de AIdan Henry ("How Facebook Is Bringing Web 2.0 Mainstream"):  FB es el gran evangelizador de la web 2.0. Su éxito, su ventaja comptetitiva ha estado en adoptar una política de alfabetización digital masiva, rebautizando -permitiendo su apropiación masiva- muchas de las herramientas Web 2.0.

En palabras de Alejandro:

"Facebook está contribuyendo a la alfabetización digital por caminos inéditos (caracterizado por el casi nulo costo cognitivo, la casi no intersección entre una proporción enorme de usuarios y otros usos de la web, a excepción del correo electrónico, o la potencial aparición de redes sociales de segunda generación temáticas y de nicho -usando plataformas como Ning- para las cuales Facebook seria la propedéutica y el entrenamiento, necesario pero pasajero? - Facebook es una poderosa herramienta de alfabetización digital inocua y transparente".

Hoy, cuando los usuarios de FB ya han superado en parte el déficit digital con el que llegaron,  parece que empieza a parecerse a Twitter. Cada vez son menos necesarias sus metáforas de realidad, permite acualizar nuestro estado como lo hace twitter y refuerza su faceta sobre "páginas", permitiendo que sean también los intereses comunes, más allá de espejos de identidades físicas, los que puedan motivarnos a entrar en su jardín vallado.

En cuanto a Twitter y como si hubiera sufrido un proceso inverso, empezamos a vivir la sobre abundancia de aplicaciones, la importancia del perfil, además de la del status y sobretodo su reciente y creciente utilidad de herramienta de búsqueda en tiempo real,  como una ventana sincrónica a la realidad.

Transmiten, reflejan,  en definitiva, una misma cultura, la que denominaremos….

  • CULTURA DE LA CELEBRIDAD, DE LA CONECTIVIDAD

Lo apuntábamos en el punto anterior: En Facebook importaba sobre cualquier otra cosa si conocíamos o no a nuestros contactos. Como ocurre con los blogs, la pestaña "Sobre mi" era sobredimensionada en su importancia. La página de perfil personal, su sofisticación a base de apliaciones, era mucho más importante que los contenidos que se aportaban a la plataforma.

El tema nos lleva a pensar en una cultura de la celebridad. Como diría Alejandro, la "mancha digital", aparecer etiquetados junto a alguien célebre,  será la nueva forma del contagio de famosos…

La idea la desarrollan Michael A. Stefanone, Derek Lackaff & Devan Rosen en We're All Stars Now: Reality Television, Web 2.0, and Mediated Identities :

Con apoyos  en la teoría cognitiva social los autores muestran una correlación significativa entre el crecimiento de la audiencia de reality shows, y el aumento exponencial de habitantes en las redes sociales.

Algo similar nos decía El fin de la soledad:

¿Qué quiere el yo contemporáneo? La cámara ha creado una cultura de la  celebridad, los ordenadores, de conectividad. Cuando la web ha permitido la  convergencia entre ambas y las redes sociales han extendido la  interconectividad, las dos culturas se han unido: La celebridad y la  conectividad son formas de ser conocidos. Y eso es lo que quiere el ser  contemporáneo: ser visible. Ante millones o como mínimo, cientos, como en  Twitter o Facebook. Esa es la calidad que nos valida, la forma en que nos  convertimos en reales para nosotros mismos — siendo vistos por los demás. El  gran terror contemporáneo es el anonimato. Si Lionel Trilling acertaba, la  propiedad que basaba el self en el romanticismo era la sinceridad y en el  modernismo la autenticidad, durante el posmodernismo es la visibilidad.(…)

Así, a diferencia de lo que ocurría en los orígenes de la red, cuando uno de sus principales atractivos era la opción de jugar, de falsear  nuestras identidades, parece que la web social nos lleva a no querer ser anónimos y preocuparnos, sobretodo, de construir con fidelidad nuestra identidad digital, unificándola incluso con la física.

El tema lleva, según David Armano, incluso, a debilitar las funciones de lo institucional en favor del valor de las personas:

Llegamos a identificarnos con tanta fuerza con nuestros intereses, se ha visto aumentado de tal forma nuestro poder de persuasión, que todo el mundo puede convertirse en tema (página) en Facebook o gestionar tópicos de interés aglutinadores de personas (como antes lo hacían solo las instituciones) en Twitter.

Pero todo proceso de democratización, de horizontalización de las relaciones de poder entre seres humanos conlleva resistencias….


  • OTRA VEZ CON LA CALIDAD..:

Ya sucedió con los blogs (Google nos hace estúpidos… (menos a mi)) y el presupuesto, fundado en prejuicios más que en hechos reales, de que la calidad de sus contenidos era menor que la que producían prensa, medios masivos digitales, etc…

Estoy invitada a las jornadas de la Catosfera para hablar sobre el Futuro de los blogs y pensando acerca del tema me he dado cuenta de que, afortunadamente, gracias a la selección natural y a pesar de los esfuerzos tecnocatastróficos y elitistas de Nicolas Carr, entre otros,  el debate sobre la calidad de los contenidos en los blogs, en muy poco tiempo, ha dejado de tener sentido.

Las opiniones retrógradas, resistentes al cambio, se traslada ahora a las redes sociales, en las que se reabre la polémica y algunos se plantean si lo que aumenta con el número de contactos que somos capaces de  manejar es la debilidad, la escasa calidad o incluso la realidad de los mismos.

Importante para hablar del tema es la valoración del estudio de Bernardo A. Huberman, Daniel M. Romero y Fang Wu, en el que analizan a través de Twitter la relación de contactos en una red y la calidad o incluso presencia de comunicación entre ellos para llegar a la siguiente conclusión: un link entre dos personas no supone interacción (efectiva) entre ellas.

Ampliando un poco la idea, el estudio concluye  que para medir la actividad de una persona en una red social, su número de amigos (personas con las que intercambia mensajes directos) es mejor indicador que su número de contactos o de seguidores. Estos son, según esl estudio, aproximadamente un 13% de los "followers".

Me pregunto porqué no se tiene en cuenta el carácter no siempre bidireccional de la comunicación, en mayor medida según estudios sobre participación, en Internet (recordemos la famosa e inexorable regla de la participación online, 90% de observadores, de Lurkers frente al 10% que participan de forma activa). ¿No constituye una relación significativa el hecho de ser observador pasivo, lector más o menos fiel de los contenidos de otro?

Se habla de redes nominales vs  redes reales, surgen cuestionamientos sobre la intimidad o incluso dudas de que las redes sociales online pueden considerarse como un modelo adecuado de propagación de ideas o de formación de lazos sociales.

6a00d8341bfa9853ef0112797b0b2328a4-500wi

En el mismo sentido van las ideas de Dunbar, que teorizó que el límite de relaciones significativas o el tamaño máximo de un grupo para mantenerse unido es de 150 personas. Más allá de este límite, debía existir un incentivo muy alto para mantener el grado de intimidad y significación en las relaciones (para mantener la "Intimidad"). Para que un grupo de este tamaño posea esa cohesión, Dunbar especuló que por lo menos un 42% del tiempo del grupo se debía dedicar a la socialización.

Seguiremos hablando de ello, de cómo las redes sociales construyen, modifican o moldean nuevos tipos de relación. Quizás, como reformula el tema David Armano, casi en positivo, también en su interesante presentación sobre Micro-sociología de las redes sociales, no es que la amistad haya muerto pero el aumento cuantitativo de nuestros límites, abriéndonos a más conexiones y relaciones de las que realmente podemos manejar, puede estar transformando el concepto.


 
 

Cosas que puedes hacer desde aquí:

 
 

Zemos98: Brian Lamb, los mashups y la reutilización radical en educación

El Caparazón

 
 

Enviado por luishernando a través de Google Reader:

 
 

vía El caparazon de dreig el 25/03/09

Podríamos empezar esta entrada sentando las bases para algunos contrastes: Como veíamos en Aprendizaje formal, informal y Comunidades: ¿existen soluciones integrales?, las empresas, algunas instituciones educativas siguen pidiéndonos plataformas y no "mashups" (veremos en unas líneas su definición).

Y me doy cuenta últimamente, gracias a diversas experiencias y reflexiones y algunos apoyos teóricos ("How Facebook Is Bringing Web 2.0 Mainstream":  FB es el gran evangelizador de la web 2.0. Su éxito, su ventaja comptetitiva ha estado en adoptar una política de alfabetización digital masiva, rebautizando -permitiendo su apropiación masiva- muchas de las herramientas Web 2.0) de que quizás sea, la plataforma, una buena forma, más segura y controlable para todos, de empezar a integrar las nuevas tecnologías a nuestros procesos de aprendizaje.

Así, el hecho de que los participantes en la formación en herramientas tecnológicas de Compartim estuvieran acostumbrados a trabajar desde el entorno cerrado de Gencat, mi paso por la UOC y sus foros o los Moodle que se preparan para impartir formación básica en temas de tecnologías o su vertiente social para personas que están empezando en esto, no me parecen, desde la distancia actual, malas "palancas" de entrada y funcionaron, de hecho, en muchos casos, como facilitadores de la "inmersión" en la web social.

Eso sí, durante un tiempo, el que debemos dejar pasar para que los participantes en acciones formativas tengan ya un nivel suficiente de competencia digital (que ya desarrollen usos sociales de Facebook, que ya pasaron por un curso en plataforma, participantes que ya son generadores de contenido en espacios personales o colaborativos, etc…) sean mayoría.

Entonces (y eso hace esta entrada más adecuada para los colectivos en educación "formal" que para pensar desarrollos formativos en la mayoría de empresas) podremos empezar ya con sistemas como los que propne, con toda la pasión del mundo que además sabe transmitir, el protegonista de este post: Brian Lamb.

copy-transmission

Conocía superficialmente su trabajo, que defiende planteamientos en educación basada en recursos libres de la web, adaptados a sus actuales posibilidades. Es un salto, posterior al tema que comentábamos al empezar pero necesario para asegurar lo que yo llamaría el aprendizaje sostenible del que nos hablaba ayer en su reciente y brillante intervención en Zemos98: Lo hacía respondiendo a algunas interesantes cuestiones:

¿Son capaces los educadores de dejar de preocuparse y disfrutar del remix?

¿En qué se diferencian las escuelas de otras industrias culturales?

¿La lógica implícita de los medios digitales ha dado un giro a nuestras instituciones educativas?

¿Cuál es la diferencia entre reutilizar y plagiar?

¿Está sobrevalorada la originalidad?

¿Es la apertura nuestra única esperanza?

¿Dónde está el feed RSS?

¿Qué es el "alfabetismo de datos"?

¿Son las empresas de la Web 2.0 el mejor amigo del profesor o sólo una panda de buitres que convierten nuestro trabajo, nuestras relaciones y nuestros datos privados en su nicho de mercado?

¿Ha estallado la burbuja de la Web 2.0?

Y, si es así, ¿ahora qué?

¿Cómo podemos enseñar a nuestros estudiantes, colegas y a nosotros mismos a ser propietarios de la tecnología en vez de limitarnos a ser consumidores?

¿Cuántas violaciones del copyright pueden meterse en una presentación?

Podéis encontrar,  casi de forma íntegra la ponencia en el espacio que habilitaba en su blog.

Interesante, innovador evento y conferencia, significativo de que las cosas pueden estar cambiando, aunque sea poco a poco, en el sector educativo. Os dejo algunas ideas que, transmitidas desde Twitter por distintos agentes (@tiscar, @zemos98 y @eraser), me han parecido relevantes y sobretodo algo que no es fácil ya últimamente, "nuevas":

"No se pasa a la acción desde el pensamiento… la emoción y la pasión son claves… se actúa sin pensar pasar a la acción… se actúa… PASIÓN=ACCIÓN….

"Esta sociedad vuelve impotente a la gente a través de los miedos…" (idea parecida en el Sharismo)

"No tiene sentido hoy cuando el coste de "compartir" es cero, lo interesante es canalizar, no reubicar"

Acerca de un ejemplo de evaluación basada en wikis: "La tarea no era sólo válida para aprobar y sólo visible para el profesor, sino que los estudiantes estaban creando recursos públicos útiles"

"Es su proyecto más apreciado porque era Fast - cheap- out of control (su lema preferido para definir tecnología eficaz)"

"Se enfrentaron a las normas y criterios de calidad y revisión de los wikipedistas, como forma de aprendizaje en un escenario real"

"La resistencia al cambio es muy profunda…estudiantes en el aula con portátiles es percibido como amenaza"

"Si las escuelas no hacen lo que deben hacer, cómo conseguirán ser relevantes y útiles en este entorno?" "Si las universidades no existieran, con tanta información disponible, qué institución imaginaríamos?"

"La gente se obsesiona con los límites y no con las experiencias"

"@eraser: ..suscripciones a revistas académicas… gastos exorbitantes… negocio no educación…"

"B.Lamb se quedó con ganas de cerrar con este vídeo, habrá que verlo » link to RiP: A Remix Manifesto"

Nuevas formas de decir viejas cosas, en algunos casos, nuevas cosas también. Destaco especialmente la insistencia, el apasionamiento que muchos compartimos con Brian: Mashups Rss como tecnología que posibilita la creación de canales para el flujo de información. El genial Lamb nos deja algunos ejemplos de herramientas para embeber contenidos desde wikis a blogs, desde recursos abiertos a blogs, etc..

  • LEAP Embed Code via JSON.
  • MediaWiki Embed Code.
  • Add user widget: Permite que los usuarios puedan darse de alta a sí mismos. Muy útil para blogs colectivos.
  • Blog activity shortcode: Extrae toda la conversación en el blog a un lugar común, creando una estructura similar a la de los foros. Muy interesante….

Iba a terminar este ya extenso post cuando me llega la publicación, desde la UOC, esta misma mañana, de una entrevista a Brian Lamb. Resumo y matizo las ideas más relevantes:

-Tendemos a querer complicar, a perfeccionar esos sistemas que vivimos en beta, entre otras cosas por las enormes porsibilidades para la apertura que acabamos de ver. Cuando lo que realmente triunfa es lo más simple, lo más evidentemente usable: las cajas de búsqueda, Twitter, etc…

-Se precisa un cambio de valores, sólo una conexión con los valores académicos tradicionales de compartir ideas, reiterar constantemente las propias ideas, ponerse retos, no instalarse en el dogma…

-«utilizad estas herramientas rápidas y baratas que tenéis disponibles, uníos a la comunidad más allá de la universidad y decid a vuestros estudiantes que, en vez de hacer el trabajo sólo porque vosotros lo decís, lo hagan para crear un trabajo público que sea valioso».

-A usted le encantan los mashups (aplicaciones web híbridas o mezclas). ¿Puede explicar qué es un mashup de una forma sencilla?

El término mashup proviene de la cultura. Era la idea de que un disc-jockey tomara una pieza musical, pongamos una guitarra de los Sex Pistols y luego una pista vocal de Madonna, y a partir de ahí creara una obra musical que no sonara como una broma, sino que los dos componentes crearan algo nuevo.

-Cuando se utilizan mashups a menudo hay que confiar en cuatro o cinco fuentes de datos diferentes. ¿Qué ocurre si una de ellas falla?

Sí. ¿O qué ocurre si una de ellas no es fiable? A menudo peco de tener la actitud de «podemos hacerlo, o sea que deberíamos hacerlo», pero ahora podría ser uno de esos momentos en los que la tecnología cambia tan rápidamente que tenemos que ir con mucho cuidado para analizar de forma crítica cada paso. El alfabetismo de datos no consiste en ser capaz de manipular canales de información RSS, sino en ser capaz de seguir el rastro hacia atrás de las cosas para evaluar sus resultados.

Por eso creo que para las instituciones de enseñanza superior es tan importante no esconderse de la tecnología. Tenemos un papel muy importante en esto. Históricamente, nuestra misión ha sido proporcionar respuestas críticas y analíticas a la sociedad en la que vivimos y me parece que lo que usted describe es uno de esos retos.

En fin… lo dicho, genial.

Brian Lamb es coordinador de Tecnologías Emergentes y Contenido Digital en la Oficina de Tecnología Educativa de la Universidad de la Columbia Británica. En su blog, Abject Learning, publica ácidos comentarios sobre el aprendizaje social, la educación abierta, la tecnología disruptiva y otros temas relacionados.

Relacionados:

¿Movimiento edupunk, socialismo educativo o educación 2.0?

Programación para niños: Hacketyhack, Small Basic, Scratch, Alice…

Educación 2.0


 
 

Cosas que puedes hacer desde aquí:

 
 

CERN II: ¿Que estas haciendo, Dave?

Hablando de problemas de almacenamiento

 
 

Enviado por luishernando a través de Google Reader:

 
 

vía Strobist en Español de Rafa Barberá el 27/03/09

Tras visitar los cuatro grandes experimentos principales del LHC en el CERN (e impartir un divertido seminario el sábado) todo lo que nos quedaba por hacer era ver el Centro de Cálculo y hacer algunas fotos.

¿Crees que tienes problemas de almacenamiento? No tienes ni idea, sigue leyendo y verás lo que son problemas de almacenamiento

46.000.000.000.000.000 Bytes no pueden estar equivocados

Cuarenta y seis petabytes.

Esa es la capacidad de almacenamiento total combinada entre cintas y discos del centro de cálculo del CERN. Disparar siempre en RAWs de 16 bits no creo que fuese ningún problema para ellos.

Ese almacenamiento (12PB de discos y otros 34PB en cintas magnéticas gestionadas por un robot) es lo que se necesita para almacenar y procesar la ingente cantidad de datos que el LHC es capaz de generar cuando está en funcionamiento.

Básicamente lo tienen que almacenar todo antes de ser capaces de decidir lo que es estadísticamente probablemente innecesario. En cada paso del procesado de datos, esta ingente cantidad de información se va reduciendo cada vez más en una especie de "buscar una aguja en un pajar" elevado a la N-ava potencia.

Si lo hacen bien, cuando terminen la reducción de datos, quedarán serias evidencias de que existe el boson de Higgs -- el Santo Grial de la física de partículas.

Mis anfitriones, Peter y Andras, comentaron que podrían hacer buen uso de algunas fotos nuevas del centro de cálculo. Y puesto que yo se algo sobre almacenamiento en cintas de mi época de orgulloso usuario de un lector de cintas Commodore 1530 Datasette, creo que era la persona adecuada para el trabajo.

El lector de cintas robotizado de IBM que se puede ver en la primera imagen estaba completamente encerrado en un armario. Tiene una ventana en cada extremo y algunas ventanas más pequeñas por arriba. La luz ambiente era bastante fría (literalmente -- era azul Nota del traductor: en inglés el termino "cool" se aplica tanto a frio como a "chulo", de ahí los constantes juegos de palabras empleando el termino cool que no son traducibles al Español), así que decidí seguir con el y le puse un CTB a mi flash.

El gel CTB (conversión de tungsteno a luz día) es mi favorito para los azules. Tiene un aspecto muy natural, al contrario que la mayoría de azules raritos que vienen en los catálogos de filtros. También es bastante eficiente, no le roba demasiada potencia al flash. Y por último es muy fácil contrastarlo con el correspondiente CTO, algo que hago continuamente.

No podíamos meternos dentro de las máquinas, que estaban continuamente en funcionamiento. La cabeza robótica no dejaba de desplazarse a gran velocidad, y con gran energía. La suficiente como para matarte si te pilla por medio mientras está intentando localizar una cinta.

Así que nos conformamos con hacer la foto desde la ventana del extremo. Pero eso nos dejaba con pocas opciones para iluminar la escena. Pusimos un SB-800 con un CTB en el otro extremo del armario y en principio lo dirigimos hacia fuera, hacia una pared cercana, para obtener una luz suave y limpia. Pero Aaron sugirió que probásemos a darle la vuelta y a disparar hacia dentro de la máquina. Lo intentamos y la verdad es que la foto se veía mucho mejor.




Así que ¿como expones para el interior de la máquina? ¿Que potencia debes usar para los flashes?

Al final todo se reduce, como siempre, a resolver primero tu problema más importante. Y mi problema aquí, era obtener la suficiente profundidad de campo para que algunas cintas estuviesen enfocadas. La luz posterior servía para obtener algunos reflejos especulares de ellas, así que intentaba tener definidas la mayor cantidad posible. Aumentar la potencia de los flashes implica tener mayor profundidad de campo.

Así que el primer paso es obtener una potencia decente de los flashes. Puse el SB-800 a 1/2 de su potencia y probé varias aperturas hasta lograr la que me gustaba. Nada sofisticado.

El siguiente paso: equilibrar con la luz ambiente. Tenía dos fuentes a considerar -- la luz dentro de la máquina y los LED de estado de la cabeza robótica.

La potencia del flash estaba fijada. La apertura estaba fijada. Todo lo que tenía que hacer es ir bajando la velocidad de disparo -- 1/30, 1/15, 1/8, 1/4 -- hasta que el LED y el ambiente azul tuviesen el aspecto adecuado.

Un flashímetro me hubiese servido de bien poco. Tan pronto como hubiese metido i mano con el flashímetro Minolta IVF dentro del armario, esa cosa se hubiese puesto en marcha y me hubiese arrancado el brazo de cuajo.

Pero eso no es un inconveniente -- no he usado un flashímetro desde hace años y aún tengo los dos brazos para demostrarlo. No necesitas un falshímetro. Siempre que seas capaz de identificar tu problema principal. Al solucionarlo ya estás fijando un parámetro y con cada paso que das vas fijando el resto, como acabo de describirte.

Sinceramente, nuestro mayor problema resulto ser lo impredictible del movimiento de la cabeza robótica. Era igual de colaboradora que un niño de 3 años con su tazón de cereales y una cuchara delante.

Quería iluminar la cabeza desde arriba y puse un segundo flash con un gel CTO en una de las ventanas superiores. Pero el cacharro no quería colaborar y nos teníamos que ir a otra sala muy pronto. Así que apagamos la luz superior y nos apañamos con la mezcla de luz trasera y luz ambiental.

Otro piso, otro tunel

Una vez acabamos con el lector de cintas, subimos al piso de arriba a fotografiar la sala principal del centro de cálculo. La gente del CERN es bastante buena montando una gran potencia de cálculo a partir de elementos mas sencillos y esta habitación es básicamente una tonelada de ordenadores Linux y otra de discos duros interconectados para generar una potencia de cálculo y almacenamiento masivos.

Fue impresionante pasar tiempo allí -- filas y filas de estanterías llenas de ordenadores y discos duros. Sin prácticamente espacio para esconder ninguna luz.



Dedícale un instante a la vista superior del pasillo donde hicimos la foto, que estaba prácticamente rodeado por dos habitaciones. Había puertas de cristal en cada extremo (que abrimos) y un techo también de cristal. Y no teníamos suficiente luz como para superar al ambiente, así que tendríamos que usarlo.

Así que nuestro primer problema era dominar el ambiente. Por suerte era una luz de fluorescente bastante consistente. Para nuestros propósitos, esta luz venía de arriba.

Puse la cámara en balance de blancos fluorescente. Hice unos ligeros ajustes del WB hasta lograr el mejor aspecto. Entonces subexpuse esa luz ambiental en dos pasos. Eso lo hice porque quería usar el ambiente como luz de relleno, no como luz principal.

Puesto que habíamos cambiando el balance de blancos, tuve que colorear los flashes para compensar. Sin problemas, simplemente puse el verde.

Así que ¿donde ponemos los flashes?
Nuestro modelo sería Andreas, quien es el autor del programa de testeo de los discos que tenía ocupadas a todas esas luces azules encendiéndose y apagándose. Era como estar en el puesto de mando de la Enterprise. O quizás en 2001: Una odisea espacial. Me gusta la tecnología, pero puedo imaginarme a mi mismo, por la noche, atemorizado por todos esos ordenadores, discos duros y cintas funcionando sin parar a mi alrededor.

(No se puede decir que asustasen tanto a Peter, nuestro otro anfitrión y otro mago de los ordenadores en el CERN, que se había quedado dormido en una de las mesas mientras fotografiábamos al monstruo de las cintas)

Así que la unión entre las dos habitaciones era el lugar adecuado para esconder la luz principal, que llevaba un filtro verde y disparaba a través de un paraguas traslúcido. su función era doble: iluminar a Andreas desde detrás y a la derecha y pintar un bonito reflejo especular en los ordenadores de la izquierda.

Usé un 1/8 de potencia y ajusté la apertura hasta que me gustó el resultado. Cada vez que movía la apertura, tenía que compensar con la velocidad de disparo para mantener el ambiente dos pasos por debajo.

Esa era la parte fácil. Ahora venía lo difícil -- ¿como rellenar a Andreas e iluminar algo del equipo al mismo tiempo?

Desde el punto de vista de la posición, teníamos pocas opciones. La más evidente era justo desde donde estaba haciendo la foto.

Puse un segundo SB-800 con el gel verde justo a mi izquierda. A unos 30cm o así a mi lado. Eso serviría para llenar a Andreas y generar algunos reflejos en los cables y las máquinas Linux. Pero también se cargaría cualquier otra cosa del primer plano.



Eso es sencillo de resolver con un panal de abeja en el flash. Cualquier cosa que está cerca, está también en la zona exterior del haz. Así que usando un panal de abeja para bloquear esa zona del haz, evitábamos quemar los laterales.

¿Como elegir la potencia de ese flash? Sencillo -- ya tenemos la apertura adecuada para la luz principal. La velocidad de disparo la determina el ambiente y esos dos pasos por debajo de la principal donde hemos deseado ponerla. Puesto que esto no queremos cambiarlo, solo tenemos que ajustar la potencia de este flash de relleno hasta lograr el aspecto deseado.

Nada especial, nada de fotómetros. Solo el tradicional jugueteo con la pantalla y el histograma de la cámara.

Ahora lo que faltaba era pillar algunas de esas luces parpadeantes. Tampoco hay ningún secreto para ello. Simplemente dispara muchas imágenes y confía en la probabilidad. Al final siempre funciona.

 
 

Cosas que puedes hacer desde aquí:

 
 

Sagrario’s Room Escape

Vía Microsiervos

 
 

Enviado por luishernando a través de Google Reader:

 
 

vía Juegos Microsiervos de no-reply@microsiervos.com (Alvy) el 20/03/09

Sagrario's Room Escape

Dificultad: 4/5 estrellas: más complicado de lo que parece

Sagrario's Room Escape, uno de esos juegos de «escapar de la habitación» usando la calma y la lógica (además del ratón), intentando no agobiarse, aunque después de un rato la situación se vuelva un poco… claustrofóbica.

(¡Gracias Rocket por el enlace!)

# Enlace Permanente y Comentarios


 
 

Cosas que puedes hacer desde aquí:

 
 

El juego más difícil del mundo (.com)

Vía Microsiervos

 
 

Enviado por luishernando a través de Google Reader:

 
 

vía Juegos Microsiervos de no-reply@microsiervos.com (Alvy) el 22/03/09

El juego más difícil del mundo (.com)MuR3, autor de El juego más difícil del mundo nos escribió para darnos a conocer su creación. Es un reto en el que hay que relacionar las imágenes, números y problemas diversos que aparecen en cada página para ir pasando de nivel en nivel.

Com suele suceder en este tipo de juegos aparte de las reglas básicas (respuestas casi siempre en castellano, escribir en minúsculas y sin acentos) la mejor regla a usar es el ingenio y dejar volar la imaginación, porque las cosas no siempre son lo que parecen.

Como el mismo autor reconoce, este juego está inspirado por otros de tipo «grandes enigmas», en concreto Notpron (inglés), aunque el suyo tiene las ventaja de estar pensado con mentalidad «en español» en cuanto al tipo de problemas, cuestiones culturales y respuestas. También la forma de pasar niveles es un poco diferente.

Del mismo estilo es también El tercer ojo que nos recomendó Eduardo (¡gracias!). En este hay un montón de pistas y reglas que conviene leer y también hay un foro para los jugadores.

# Enlace Permanente y Comentarios


 
 

Cosas que puedes hacer desde aquí:

 
 

Magic Pen

Vía Microsiervos

 
 

Enviado por luishernando a través de Google Reader:

 
 

vía Juegos Microsiervos de no-reply@microsiervos.com (Wicho) el 24/03/09

Magic Pen

Dificultad: 3/5: entretenido

En Magic Pen el objetivo del juego es llevar la bola roja hasta la meta o metas en cada nivel, para lo que se pueden dibujar distintos objetos que interactuaran con ella y con el escenario, siempre obedeciendo a las leyes de la física.

(Lo envió Víctor Pol para hacernos perder el tiempo miserablemente.)

# Enlace Permanente y Comentarios


 
 

Cosas que puedes hacer desde aquí:

 
 

Funny Farm: palabras relacionadas

Vía Microsiervos(Juegos)

 
 

Enviado por luishernando a través de Google Reader:

 
 

vía Juegos Microsiervos de no-reply@microsiervos.com (Alvy) el 27/03/09

Funny Farm: palabras relacionadas

Dificultad: 5/5 estrellas: altamente complicado

Me encantó el concepto de Funny Farm, incluso más que el juego en sí: hay que ir adivinando palabras relacionadas, de modo que al añadir una correcta aparecen nuevas relaciones y términos, de los que sólo se indica como pista el número de letras. El grafo crece y crece a medida que se van adivinando cosas –hay una ventana con todo el mapa en minuatura– y la magnitud del juego completo es… casi inabarcable.

Por desgracia está sólo en inglés, aunque viendo el ladbo bueno también sirve para practicar y ampliar vocabulario… Tal y como nos contó Ricardo que es quien nos lo envió (¡gracias!) en su día los programadores de la comunidad de TopCoder tardaron diez días en resolverlo completo. Quienes se aventuren al reto deben leer las pistas (enlace Hints) porque el juego incluye un meta-juego y es todavía más complicado de lo que parece.

Algo interesante es que parece que el juego te guarda la sesión de modo que aunque te desconectes cuando vuelves a la página continúas en el punto en el que lo habías dejado.

# Enlace Permanente y Comentarios


 
 

Cosas que puedes hacer desde aquí: