Los 3 pilares de la efectividad personal

Este libro gratuito de Troels Richter está especialmente escrito para la gente con una alta carga de trabajo diaria y que a menudo está involucrado en varios proyectos a la vez (os suena?, yo ya no recuerdo otra cosa :D)

A mi me ha llegado al alma lo del estrés que nos crea tener la sensación constante de ir siempre detrás de lo planificado!

El objetivo del libro es presentar el mundo de la productividad personal a través de unos simples pasos.

Para conseguir esto el libro utiliza una combinación de Personal Kanban y de Pomodoro!.

Los contenidos son:

El primer pilar: Importancia

Tome el tiempo para pensar

Aprenda a controlar el tiempo

Aprenda a priorizar

Aprender a respetar las prioridades de su propia

El Segundo Pilar: Enfocar

Aprender a concentrarse, aprender la técnica Pomodoro

Aprende a ver el tiempo centrado en los criterios de éxito

Aprender a trabajar en iteraciones pequeñas, con un ritmo sostenible

Aprender a manejar las interrupciones externas

Aprenda a manejar sus dilaciones

Aprenda a planear su día

El Tercer Pilar: Valor

Conozca la eficacia mediante el aprendizaje de Personal Kanban

Aprenda a visualizar el flujo de trabajo

Aprenda a limitar el trabajo en curso

Aprenda a asignar la cadena de valor

Aprenda kaizen

Aprenda heijunka

Aprenda a enriquecer el contexto

Aprender a combinar Personal Kanban y la técnica Pomodoro

Podéis descargarlo desde aquí.

Gridster: Plugin JQuery para crear layouts drageables

Gridster es un plugin jQuery que permite crear layouts drageables, permite crear y eliminar elementos del grid y además moverlos:

Podéis verlo en funcionamiento en su web:

MapReduce for dummies

Supongamos que tenemos que hace un programa que cuente las palabras de esta frase:

(sin incluir a, the,…)

Una solución tradicional consistiría es ir recorriendo secuencialmente las palabras de nuestra frase y añadir a un HashMap como clave la palabra y como valor el número de ocurrencias:

Pero imaginemos ahora que tenemos que contar todas las palabras de una enciclopedia!!!, en este caso el procesamiento secuencial sería muy poco óptimo y tardaría mucho.

Podríamos dividir la frase en 2 y hacer el mismo procesamiento sobre cada una de estas partes almacenando las palabras en un HashMap (Map)

Cuando hubiésemos contado las palabras de cada parte tendríamos que combinarlos mapas de las dos sentencias en un Mapa único (Reduce):

Si ahora imaginamos que cada parte del texto la tenemos almacenada en bloques HDFS y mapeamos las tareas en cada uno de los nodos entonces podremos usar el poder de computación de cada nodo:

Cada nodo puede correr tareas (Map o Reduce)

Cada nodo puede tener almacenados Data Stores para múltiples ficheros, en cada nodo pueden correr varias tareas.

Para controlar las tareas MapReduce existen dos procesos (Hadoop):

· JobTracker : es el servicio que pas alas tareas MapReduce a los nodos específicos del cluster (idealmente cada nodo tundra los datos a procesar)

· TaskTracker: es el proceso que arranca y sigue last areas MapReduce en el cluster. Comunica con el JobTracker para la asignación de tareas y el reporting de resultados

OS X Mountain Lion: más de dos millones de copias en 48 horas

Aunque la cifra no proviene de Apple y por tanto no es oficial. La compañía de análisis de datos Chitika, ofrece una estimación de ventas de OS X Mountain Lion que rondaría los 2,11 millones de copias en las primeras 48 horas.

Según parece el competitivo precio de 19,99 dólares ha sido un buen argumento de venta.

Una buena noticia para la compañía de Cupertino, que puede haber ingresado en caja 38 millones de dólares en dos días.

Para saber más: http://insights.chitika.com/2012/mountain-lion-roars-captures-3-2-share-in-first-48-hours/

50 características de un gran programador

http://www.supercoders.com.au/blog/50characteristicsofagreatsoftwaredeveloper.shtml

Aunque me da que si alguien cumple las 50 sería mucho más que un gran programador! Sería el no va más de la programación! 🙂

Qué es Apache Jena

Apache Jena es un framework Java para construir aplicaciones basadas en ontologías.

Jena se desarrolló en HP Labs en el 2000, en 2009 HP cedió el proyecto a la fundación Apache que decidió adoptarlo en noviembre de 2010.

Su Arquitectura incluye:

  • API para trabajar (leer, procesar, escribir) ontologías RDF y OWL
  • Motor de inferencia para razonar sobre ontologías RDF y OWL
  • Estrategias de almacenamiento flexible para almacenar tripletas RDF en memoria o fichero
  • Motor de queries compatible con especificación SPARQL

Asociados con Jena hay un gran número de proyectos interesantes:

· Jastor: generador de JavaBeans desde OWL

· Micro Jena: Jena para dispositivos móviles

· Twinkle: interfaz para trabajar con queries SPARQL

· D2RQ: permite trabajar con bases de datos relacionales no RDF con grafos Jena RDF

· Jena Grande: colección de utilidades y ejemplos para usar MapReduce, Pig yHBase para procesar datos en formato RDF

· GeoSpatialWeb: añade predicados geoespaciales y capacidades de razonamiento a Jena

Para entender un poco mejor que permite Jena recomiendo este tutorial: An Introduction to RDF and the Jena RDF API

Podéis seguir en su documentación.