Internet, un proyecto militar fracasado

viernes, 30 de octubre de 2009

INTERNET CUMPLE 40 AÑOS. El 29 de octubre de 1969, Leonard Kleinrock, profesor de la UCLA, envió un mensaje a sus colegas del Standford Research Institute. Se trataba de comprobar que una máquina podía dialogar con otra con un nuevo protocolo. Tenía que escribir L-O-G. Llegaron la L y la O. Al primer intento, fue imposible con la G. El ordenador que empleó, Interface Message Processor, es hoy una pieza de museo. Kleinrock ha confesado que nunca imaginó a su abuela empleando Internet. Pensó que era un sistema para conectar máquinas, pero no aventuró el empleo que le han dado las personas. Este mensaje se considera el acto fundacional de Internet. Sin él, hoy el mundo se colapsaría. Así de simple. Las empresas, los sistemas de defensa de los países, el transporte, el ocio, las telecomunicaciones, la enseñanza y la sanidad. En este tiempo de constantes invenciones hay tres aplicaciones básicas, según el autor del artículo: el correo electrónico, la WWW y el sistema de intercambio de archivos P2P.



En la segunda mitad de la década de 1960, las grandes empresas constructoras de informática empezaron a desarrollar los primeros sistemas de comunicación entre ordenadores. En aquellos días, lejos de la omnipresencia actual de la tecnología microinformática, tan sólo existían lo que hoy llamaríamos sistemas propietarios, cada empresa diseñaba sus procesadores y su software, y por tanto, su sistema o arquitectura de comunicaciones.

Posiblemente influidos por la estructura centralizada de sus clientes más importantes (bancos, empresas de seguros, grandes corporaciones, etcétera), las empresas constructoras de ordenadores para la gran informática diseñaron sistemas de comunicaciones con topología en estrella, sumamente centralizados.

Un ordenador principal gestionaba y supervisaba la incipiente red que permitía interconectar diversos ordenadores satélites del ordenador principal, terminales más o menos potentes, o simples terminales de pantalla o impresión. También era posible la conexión directa entre los ordenadores satélites, aunque siempre bajo la supervisión del gestor único de la red, residente siempre en el ordenador principal.

Cada empresa tenía su sistema: SNA (System Network Architecture) en el caso de IBM, DSA (Distributed System Architecture) en el caso de Honeywell o el equivalente de Univac. Y todos estos sistemas eran incompatibles entre sí, lo que hacía casi del todo imposible (o terriblemente complicada) la interconexión de ordenadores de diversos fabricantes.


Sistemas vulnerables


Pero había otro camino alternativo, el de la futura Internet, que, a pesar de ser poco considerado durante los años setenta y ochenta por los profesionales de la gran informática, ha sido el que ha predominado. La orientación centralizada de las comunicaciones informáticas que habían previsto los fabricantes de ordenadores no resultaba en absoluto útil para los militares. Una topología en estrella resulta sumamente vulnerable: si se destruye el ordenador principal de la red, el que tiene todo el control de la red, todo el sistema de comunicaciones se hunde.

Por ello, en ARPA (Advanced Research Projects Agency), la agencia de proyectos adelantados de investigación norteamericana, se propuso diseñar un sistema para interconectar ordenadores en red de manera que ninguno de esos ordenadores o nodos fuera decisivo ni imprescindible para el funcionamiento de la red. De ahí nació la primera red de investigación concebida con esta filosofía, Arpanet (la red, net, de ARPA), de la cual deriva la actual Internet.


Parece que la idea fue de J. C. L. Licklider, director de la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA) desde octubre de 1962, pero fue Robert Taylor quien la puso en práctica después de contratar a Larry Roberts, del MIT. La primera red Arpanet se estableció entre los ordenadores de la Universidad de California, Los Ángeles (UCLA), y del Stanford Research Institute, el 29 de octubre de 1969.


La nueva red incorporaba una tecnología innovadora de conmutación de paquetes, desarrollada a instancias de la DARPA, en contraposición a la conmutación de circuitos habitual en la telefonía. Después, hacia 1983, la conjunción de diversas redes informáticas con la misma tecnología (Arpanet de ARPA, Milnet de los militares y CSNET de la investigación informática) acabó creando la llamada red de redes o Internet.


La gestión de la nueva Internet por parte de la National Science Foundation (Fundación Nacional de la Ciencia de Estados Unidos) hizo que algunos emprendedores pidieran convertirse en proveedores de servicios en Internet (ISP: Internet Service Providers) y el uso de la red Internet, inicialmente un proyecto militar reservado, llegó al gran público.


Hoy Internet es, como sabemos, una red sumamente abierta, sin control posible, ya que ningún nodo la domina y controla. Hay que decir que, como proyecto militar que fue en sus orígenes, la red podía ser abierta y sin control, ya que sus usuarios, los militares, sí estaban controlados y sometidos a la disciplina militar. Eso impedía el descontrol de la incipiente Internet: la red era abierta y libre, pero no sus usuarios. Por eso Internet es hoy imprevisible: se trata de una red no regulada en manos de personas escasamente reguladas por leyes siempre retrasadas con respecto a la tecnología.


Por este motivo, siempre hay nuevas posibilidades en Internet, incluso la de la organización espontánea de la creatividad de todos. Se podría decir que Internet es, en cierta medida, un gran proyecto militar fracasado.


Reportaje de Miquel Barceló, profesor de la Universidad Politécnica de Cataluña

Ubuntu 9.10 Final, disponible

Fiel a la cita otoñal, Canonical ha anunciado la disponibilidad de la versión final de Ubuntu 9.04 “Karmic Koala”, distribución GNU/Linux que se ha convertido en la más popular del mercado y que llega con amplias mejoras para convertirse en una alternativa libre y gratuita a los todopoderosos Windows y Mac OS X.

Ya os hemos ido informando puntualmente del desarrollo de Ubuntu 9.04, desde la versión alpha, beta, o la Release Candidate que ya mostraba todos los avances que llegarían en la versión final liberada.

Entre ellas destacan el Ubuntu Software Center (USC) que permite a cualquier usuario la instalación sencilla de software y que los que llevan/llevamos ya unos añitos en el mundo Linux podemos comprobar los grandes avances en este terreno. Las acusaciones –sin fundamento- de dificultad de este apartado para el usuario común, sencillamente no se sostienen.

En cuanto al apartado de la interfaz mejora en el proceso de instalación y arranque gráfico con XSplash, el tema por defecto, los fondos y especialmente el aspecto de los iconos. Un tema “Human” más elegante que se puede cambiar fácilmente con unos pocos clics de ratón con una multitud de alternativas a instalar. Las grandes mejoras en este apartado llegarán en abril con Ubuntu 10.04.

El apartado del rendimiento también mejora especialmente el proceso de arranque con Upstart y la adopción del sistema de archivos ext4 y que para la siguiente versión se trabaja en el objetivo ambicioso de los 10 segundos. Oro apartado destacado es Ubuntu One (con 2 Gbytes de almacenamiento gratuito) que apuesta por los servicios web “en nube” y que en la versión Server con Ubuntu Enterprise Cloud permite que las empresas puedan desarrollar sus propias “nubes privadas” para la ejecución de sus servicios web.

Apartado destacado es la llegada del nuevo gestor de arranque GRUB 2, más potente y visualmente más atractivo o la inclusión del kernel 2.6.31 que mejora entre otros aspectos soporte drivers (por ejemplo para USB 3.0). Como de costumbre, Ubuntu apuesta por el entorno de escritorio GNOME 2.28.1 cada vez más integrado, potente y funcional y la instalación de una gran cantidad de aplicaciones actualizadas como Firefox 3.5.3, OpenOffice.org 3.1, GIMP 2.6.7, Rythmbox y Totem.

En resumen, “el Ubuntu más pulido de todos los tiempos” como indican algunos análisis sobre la distribución, estable como de costumbre, segura y una apuesta por la sencillez y fácil manejo para todo tipo de usuarios.

En versiones de 32 y 64 bits ya está disponible para descarga las ediciones Desktop y Server y los sabores habituales Kubuntu, Xubuntu o Mythbuntu, en descarga directa o en la red BitTorrent.

La caída de las ventas mantiene las pérdidas en Sony

La empresa japonesa Sony ha anunciado hoy unas pérdidas netas de 26.300 millones de yenes (195 millones de euros) entre julio y septiembre, frente a un beneficio de 20.800 millones de yenes (154 millones de euros) en el mismo periodo de 2008. El gigante nipón ha achacado estos resultados, que en cualquier caso son mejores de lo previsto, a la ralentización de la economía y la apreciación del yen, así como a la disminución de sus ventas, que entre julio y septiembre, segundo trimestre del año fiscal japonés, cayeron un 19,8% interanual hasta 1,66 billones de yenes (12.318 millones de euros).

A pesar de este deterioro en el mercado de bienes de consumo duradero, Sony ha revisado sus previsiones de pérdidas para el actual año fiscal. Así, aunque no espera abandonar los números rojos a final del ejercicio, ha reducido las pérdidas previstas desde los 120.000 millones de yenes (890 millones de euros) calculados en julio hasta los actuales 95.000 millones de yenes (704 millones de euros).


El segundo fabricante mundial de productos electrónicos registró el año pasado sus primeras pérdidas netas y operativas en catorce años, que achacó a la crisis, un yen fuerte, una menor demanda y al aumento de la competencia con sus rivales. Ante esta situación, la empresa se encuentra inmersa en un plan de reestructuración para capear la crisis, que prevé la eliminación de 16.000 empleos y el cierre de ocho de sus fábricas en todo el mundo.


DirectX 11 para Vista SP2, ya disponible

Bright Side of News informa de que Microsoft ha lanzado silenciosamente una actualización que añade soporte DirectX 11 a Windows Vista SP2.

Al descargar esta actualización "Actualización para Windows Vista (KB971512)" estamos descargando una actualización que contiene "Windows Graphics, Imaging y la librería XPS contiene los últimos avances en gráficos para juegos, multimedia, aplicaciones de imágenes e imprimido. Esto incluye actualizaciones para DirectX, DirectCompute y librerías XPS. Después de instalarlo tienes que reiniciar tu PC".

Podéis bajarlo aquí.

Si se busca algún otro sitio de descarga podemos encontrar lo mismo en Guru3D.

LG muestra pantallas OLED transparentes

jueves, 29 de octubre de 2009


Primero alta definición, después llegaron las pantallas OLED y AMOLED, el cine en 3D y ahora las pantalla transparentes. La industria audiovisual esta que arde. LG Display ha mostrado en el evento japonés (FPD), un primer prototipo de pantalla OLED transparente.

Como todo prototipo que se presenta, simplemente se muestra, las utilidades pueden ser varias pero claro, no se indica ninguna en concreto porque nunca se sabe si puede servir. Pero imagina una de estas pantallas instalada en un coche, podría ser una nueva forma de mostrar los controles e indicadores de un coche. También en lugares donde necesitas visibilidad.

Google da el primer paso en la oferta de música

Google ha dado su primer paso en el sector de la música en Internet con un servicio para buscar canciones en la red, pero no permitirá descargar música en su portal y sólo dirigirá al internauta a otras páginas donde sí es posible. Con un acto celebrado en Hollywood y una entrada en su blog corporativo, Google anuncia queel lanzamiento de este servicio que estará disponible a partir de hoy en EEUU.

Los internautas que introduzcan el título de una canción en la casilla de búsqueda de Google verán entre los resultados enlaces a ese tema musical. Si pinchan en ellos podrá escuchar parte o toda la canción suministrada por los socios de Google en este servicio, entre ellos Lala y iLike, propiedad de la red social MySpace. No será posible descargar la canción directamente en la página de Google como aseguraban algunas informaciones, pero habrá enlaces para dirigirse a los socios de Google que ofrezcan la descarga. El sistema permitirá encontrar la canción aunque sólo recordemos una frase del estribillo, promete Google. Entre los resultados habrá también enlaces a portales como Rhapsody o Pandora que crean listas de canciones siguiendo las preferencias del usuario y son útiles para descubrir nueva música.

"Por supuesto, este es sólo el primer paso en hacer que las búsquedas en la red sean más musicales", señalan Murali Viswanathan, gestor de producto, y Ganesh Ramanarayanan, ingeniero de Google en el blog de la firma. El buscador reconoce que el espectro musical es inmenso y muchas canciones no estarán disponibles, pero espera mejorar el servicio con el tiempo. Paralelamente a la publicación en su blog, Google ha celebrado en Los Angeles un acto de presentación oficial con un panel de discusión sobre el tema y la participación de miembros de los grupos musicales Linkin Park, OneRepublic y Dead by Sunrise, entre otros. Aunque algunas versiones señalaban que Google recibiría de sus socios parte de los ingresos por la descarga de canciones, el buscador lo ha desmentido y asegura que las ganancias se obtendránpor los anuncios online como en el resto de las páginas de Google.

La música en internet es un negocio jugoso y los expertos están convenidos de que las descargas legales de canciones superarán en breve a las ventas de discos compactos. Según un estudio de la consultora NPD, las ventas de CDs suponen hoy aún un 65 por ciento del total pero caen a un ritmo de en torno al 15 y el 20 por ciento anual. Las descargas legales crecen al mismo porcentaje, por lo que se igualarán a finales de 2010. En muchos países como EEUU el mayor trozo de esta tarde está en manos de iTunes, la tienda online de Apple, de la que hoy Google se convierte en competidor indirecto. iTunes ya ha vendido más de 6.000 millones de canciones desde su lanzamiento en 2003, además de millones de películas y series de televisión.

Los internautas británicos que reincidan en las descargas ilegales serán desconectados de la red, ha anunciado hoy el ministro de Empresa, Peter Mandelson. Una medida que sigue los pasos a la tomada en Francia por el Gobierno Sarkozy. En una intervención ante un foro organizado por el Gobierno para debatir sobre los derechos de autor, Mandelson ha anunciado que se está estudiando introducir una medida similar a la aprobada en Francia.

El ministro dijo que se tratará de una medida que se aplicará como última alternativa y que sólo entrará en vigor una vez que los "piratas" hayan recibido previamente dos cartas de advertencia. "No espero que se produzcan suspensiones masivas del servicio. La gente recibirá dos notificaciones y si se llega al punto de desconectarles de la red tendrán la oportunidad de recurrir", dijo.

Frente a esta medida coercitiva, Mandelson aseguró que el plan del Gobierno para frenar la piratería incluye también introducir una legislación menos estricta en materia de copyright, sobre todo si el material descargado se utiliza únicamente en el ámbito privado. Mandelson asegura que las industrias relacionadas con los derechos de autor dan empleo en el Reino Unido ados millones de personas y que generan anualmente unos 16.000 millones de libras (17.670 millones de euros ).


El objetivo de la nueva legislación, que deberá contar con el visto bueno de la Unión Europea (UE), es frenar a la gente que de manera habitual utiliza programas para encontrar y descargar ilegalmente archivos. Mandelson se declara impactado por las cifras facilitadas por la industria, según las cuales sólo una de cada 20 canciones que se descargan en el Reino Unido se bajan de manera legal. "No podemos quedarnos sentados y no hacer nada", ha declarado el ministro, quien admite no obstante que "la legislación y su aplicación sólo pueden ser parte de la solución del problema". A la larga, argumenta, es necesario también que la industria encuentre nuevas y más baratas maneras para que los usuarios se puedan descargar legalmente los contenidos desde Internet.

El hecho de que el control de las descargas tenga un coste que deberá ser asumido parcialmente por los proveedores de Internet ha colocado a éstos en contra de la medida. Incluso han abierto una web, reclamando que no se aplique la desconexión.

Tecnología contra exageración

miércoles, 28 de octubre de 2009

Un sistema infalible para medir los asistentes a una manifestación es el siguiente: se cuentan las piernas de todos ellos y se divide por dos. No es más que un chiste que circula por ahí, pero de chiste son también las cifras que algunos organizadores ofrecen del número de participantes, con un sistema de cálculo que no debe ser muy distinto de ese de las piernas.


Contar manifestantes sin rozar siquiera el ridículo no es difícil si se acude a una estimación basada en el espacio y la densidad: tantos metros cuadrados, tantas personas por metro cuadrado. Pero no siempre se puede. El millón de personas que acudía a ver al caudillo a la Plaza de Oriente no era más verdad que los amigos de Roberto Carlos. La cifra más optimista de los que caben en ese espacio andará por los 100.000, redondeando. Pero aquel delirio no había forma pública de cuestionarlo.

Curioso es, sin embargo, que eso siga ocurriendo ahora, cuando la democracia y las urnas han dado algunas buenas razones para calmar la euforia: 800.000 personas, según los organizadores -120.000, dijo la Delegación del Gobierno- salieron a la calle en febrero de 1986 para pedir la salida de la OTAN. Tanto si se trata de una cifra como de la otra, eran muchos, pero el referéndum demostró que los votantes pueden ser más.

"El fin último de una manifestación, como se demostró con la OTAN, no debería ser la cantidad de gente, porque eso no quita ni da la razón. Esa es la gran demagogia que convierte una protesta en unas elecciones. No hay que caer en el populismo", sostiene el profesor titular de la UNED Ramón Adell, que ha diseccionado durante más de 30 años las manifestaciones españolas.

Esta sinrazón del recuento de manifestantes tiene su origen más reciente en los noventa, con las grandes marchas unitarias por la paz y en contra de ETA. Las manos blancas tras el asesinato de Tomás y Valiente, en febrero de 1996, o las enormes demostraciones de repudio tras la muerte del concejal Miguel Ángel Blanco, en julio de 1997.

Unitarias, institucionales y con un mensaje inequívoco: la paz. Todo un pueblo se deja llevar por la borrachera de la unidad, que les carga de razón y les hace creer por un momento que así, con ese noble gesto de la protesta pacífica, se puede acabar con la barbarie. "Se empieza ya con unas previsiones muy exageradas, medio millón, por ejemplo, que luego han de superarse", dice Adell. Y nadie las va a negar porque todos se sienten concernidos por la misma causa.

Los expertos, como Adell, no están ya por revisar aquellas cifras, pero creen que ha llegado el momento de poner un poco de sentido común en esta feria de millones de cálculo desconocido. Enfriar esas cifras, dice, "no rebaja el éxito, porque una manifestación de 50.000 personas es una señora manifestación, y debería impedir al que gobierna minimizar el conflicto ciudadano que se esconde detrás de esa punta de iceberg que toma la calle", afirma Adell.

Tomar el espacio público para reivindicar cualquier causa es una fórmula propia del siglo XIX, como se detallará más adelante, pero en pleno siglo XXI las nuevas tecnologías han irrumpido con tal fuerza que mal se entiende que la gente siga creyendo a ciegas un cálculo erróneo o, simplemente, interesado.

Los muchachos del Manifestómetro (manifestometro.blogspot.com), en Madrid, o el movimiento Contrastant, en Cataluña, fueron pioneros allá por 2005 en la implantación de un método más eficaz para medir la asistencia a las manifestaciones. Mediante fotografías de la protesta para calibrar la densidad de personas por metro cuadrado y el cálculo del espacio que ocupa la masa humana, establecen (Contrastant ya ha cerrado) un cálculo bastante aproximado que se acerca más a las cifras de la policía que a las muy infladas de los organizadores. Y nunca pasa de unas decenas de miles. Parecido sistema estimativo ha venido usando este periódico.

El objetivo del Manifestómetro, explica uno de ellos, no es tanto contar los que van, sino demostrar que es imposible que en un recorrido determinado haya ese número de personas que esgrimen los organizadores. El Manifestómetro saca horquillas de participación posible, en función de las personas que ocupan un metro cuadrado: dos, tres, una.

A pesar de la popularidad que alcanzaron estos blogs, la orgía de cifras no se ha calmado. Del enfado por lo que él considera un "insulto a la inteligencia" ha surgido, por último, la empresa que lidera Juan Manuel Gutiérrez, Lynce. En la última gran manifestación celebrada en Madrid, en contra del aborto, un zepelín sobrevoló las miles de cabezas. ¿Cuántas? Exactamente 55.316, dijeron. "Lo nuestro no son estimaciones, son mediciones efectuadas con un método científico", es lo primero que argumenta Gutiérrez para defender su sistema y lo que le diferencia del resto. Cuatro cámaras fotográficas de alta resolución y dos de vídeo de alta definición recogen el movimiento en la calle a una hora precisa y desde el cielo. "El momento elegido para ello es cuando la cabecera llega a su destino y comienza la lectura del manifiesto", afirma Gutiérrez. Aunque no han facilitado fotos de alta resolución, siete de ellas que abarcan todo el gentío fueron bastantes para que el ordenador contara, uno por uno, a la concurrencia, aseguran. Ésa es la diferencia: no se estima la densidad por metro cuadrado, se cuentan personas. En las fotos que han hecho públicas se ve a cada persona con un número adjudicado encima de su cabeza. Hasta 55.316, en una manifestación donde los organizadores contaron dos millones y seguramente no se exageró más que en otras.

El dato de Lynce, difundido por la agencia Efe, venía avalado por un factor que da fiabilidad a las estadísticas, el margen de error, que cifraron en un 15%. "Las encuestas tienen un margen de error para evitar ciertos sesgos que se pueden dar al seleccionar la muestra, pero aquí se trata sólo de contar gente, el error posible viene dado por la tecnología". Lo que la foto no capta, la gente detrás de un edificio, tras el cortinaje del escenario u ocultos por un árbol. Esos son los "falsos negativos". También existen los "falsos positivos", que son los que se cuentan de más, por ejemplo si la máquina confunde un globo o una mochila con una cabeza. "Estos últimos son prácticamente inapreciables, pero los anteriores definen el margen de error".

La experiencia le dice a Gutiérrez que cuatro personas por metro cuadrado es una cifra imposible para una manifestación en movimiento. "La densidad media puede rondar 1,7 por metro cuadrado", asegura.

Una de las críticas más recurrentes a las 55.316 personas que contó Lynce, entre los que entendían que era una cifra pírrica, resultaba de la comparación con el campo de fútbol. Pues bien, si se da por buena la densidad de 1,7 almas por metro cuadrado, sacar en procesión al estadio del Bernabéu al completo equivaldría a llenar el tramo de que va de la plaza de Cibeles a la Puerta de Alcalá, ambas inclusive. "El debate no debe estar en el número de personas, sino en las ideas", concluye Gutiérrez.

He aquí otra clave: las ideas. ¿Desde cuándo la razón viene avalada por el número de manifestantes? "La política en la calle es decimonónica, por tanto, las manifestaciones son una regresión en el tiempo. Cuando se salía a la calle, era con la idea de que allí es donde se tomaban las decisiones, mal canalizadas por otras vías políticas. Por tanto, si en la calle se resuelven las mayorías, contar manifestantes es como contar votos", explica Fermín Bouza, catedrático de Sociología y Opinión Pública de la Complutense. Y prosigue: "Si es necesario contar, es necesario mentir". La mentira, añade Bouza, "sólo existe en función de la verdad". "Cuando uno se cree en posesión de la verdad no le importa mentir. Sin embargo, cuando uno se mantiene en una actitud de duda, cuando es capaz de cuestionar sus propias verdades, la cifra ya no importa tanto, qué más da que sean 50.000, si esos principios no van a cambiar", explica el catedrático.

A pesar de todo, a Bouza esta regresión al XIX le parece un acontecimiento "feliz". "La dificultad del ciudadano para participar en el debate político y la frialdad de la política contemporánea" son las razones que sacan a la gente a la calle. "Y nos acaba por gustar", dice. Gusta que desde el escenario se grite eso de: "Somos más de un millón". Supone la cifra del éxito, la que otorga la razón a una causa. Al delirio psicológico de esos momentos, se añade la incapacidad de una persona inmersa en la multitud para hacerse una idea precisa del número total de correligionarios que lo acompañan. Y en esa percepción influyen factores tan variopintos como la calle por la que se discurra, si hay vallas que impidan el movimiento en libertad, si el transporte en metro para llegar o abandonar la marcha ha sido o no reforzado. "Incluso la indumentaria de los manifestantes", asegura Paco Naranjo, secretario de Comunicación de CC OO de Madrid. Y nada de todo ello se deja al azar. Se deciden las calles, más anchas o más estrechas, "y si hay mucha gente vestida con globos, pancartas, gorras, da sensación de mayor presencia", afirma el sindicalista.

Una marcha mal organizada, donde no se ha calculado bien la asistencia y cuya cabecera está excesivamente pegada a la comitiva que le sigue, por ejemplo, acabará con la sensación de que no se ha podido ni caminar, de ahogo, de muchedumbre. Si además, el metro no da abasto para desalojar al personal porque no se han puesto más trenes, en la calle no se hablará de otra cosa: no había forma de moverse.

Estos trucos los conoce muy bien Ramón Adell, por eso cree que es necesario que haya un sistema público fiable que proporcione cifras de asistencia serias, "como ocurre en otros países". "Debería ser un derecho, no podemos estar perdidos entre el organizador y el enemigo. No basta con concentrar a la gente en una plaza con muchos transeúntes. Eso ya se lo sabía hasta Fernando VI, que decía aquello de: das una patada en la Puerta del Sol y retumba en toda España".

La percepción del manifestante o del que trata de contarlos es confusa. Adell puso en marcha un sencillo experimento con sus alumnos. Les mostró fotos de una manifestación a favor de una causa noble y les pidió que calcularan la asistencia. Dieron una cifra generosa. Con la misma imagen, pidió a otro grupo que calculara el número de fascistas reunidos allí: "Curiosamente, ahora veían muchos menos que antes", se ríe el profesor.

El 99% de las manifestaciones no agrupan más de 5.000 o 10.000 personas. Por tanto, sacar a la calle a 100.000 es tanto como convencer a toda una ciudad respetable para que salga a la calle por una causa. Para medir el éxito no basta con contar a la gente, "hay que tener en cuenta, también, la tasa de movilización, que es el número de manifestantes relacionado con el colectivo que se ha llamado a protestar. Desde ese punto de vista, y si esto ha de servir para extrapolar el éxito nacional de una protesta, un canario que se traslade hasta Madrid representa a más gente que un madrileño que sólo ha de tomarse la molestia de dar un paseo por las calles de su ciudad", afirma Adell.

Hay muchas cosas, pues, que medir. Pero creer, dice el catedrático Bouza, "sólo hay que creer que una manifestación es un acto publicitario, no que el poder está en la calle y que los políticos son inútiles, porque esa es una senda peligrosa".

El cierre definitivo de Geocities

Era la crónica de una muerte anunciada, tal y como coinciden en calificar muchos medios. La noticia ya se sabía desde hacía meses, pero esta semana ya ha vencido el plazo máximo que se había fijado: Geocities cierra definitivamente.

Siendo uno de los servicios pioneros en la creación de páginas web, Geocities se convirtió en un referente a la hora de crear nuestro espacio web en la Red, algo que en la época en la que salió era bastante raro de ver, y aún más que fuera gratuito. Eso sí, no se puede decir que el diseño de las páginas fuera atractivo, ni que hubiera cambiado mucho a lo largo de los años.

Yahoo! sigue con el cierre de servicios, intentando rentabilizar su negocio en la medida de lo posible. Sin duda, un adiós sentido que los más veteranos de la Red sentirán, ya que Geocities estuvo casi en los inicios de todo, por decirlo de alguna manera.

Los que aún tengan alguna web alojada mejor que se den prisa en hacer una copia de seguridad o en trasladarla a otro servicio de alojamiento lo antes posible.

Windows 7: Juegos y aplicaciones que no funcionan

Ya tenemos nuevo Windows, hace apenas 5 días que se lanzó oficialmente Windows 7 y por lo tanto aún es pronto para evaluar todo lo que tiene relación con él, y como en cualquier cambio de S.O. aparecen distintos problemas no previstos.

DE MOMENTO, A LOS GAMERS Y COMPONENTES DE LA PARTY, LES RECOMIENTO NO ACTUALIZAR A WINDOWS 7, si quieren disponer de todas las funcionalidades de vuestro PC.

Volviendo al tema principal, es imposible hacer un listado completo y correcto ya que hay tantos juegos y programas que no se terminaría nunca, además que hay que tener en cuenta que algunos problemas pueden ser culpa de la configuración de hardware dónde se están realizando las pruebas.

Aún así, en PC Games Hardware comentan algunos de los problemas que han detectado, aparte de recomendarnos que pasemos por la página de Microsoft encargada de listar las aplicaciones, juegos y hardware compatible con su nuevo S.O. Echando un vistazo en dicha web de Microsoft podremos comprobar como aún están recopilando información y por lo tanto en muchos casos no hay ni un sí ni un no.

Aún con el riesgo de que algunos de los problemas mencionados sólo se reproduzcan en su máquina de pruebas nos explican los programas que no les han funcionado en su Windows 7, aunque tampoco especifican si se trata de la versión de 32 o la de 64 bits, aunque suponemos que realmente están probando la de 64 bits por algún fallo citado a continuación:

•Fifa 10 -> Arranca pero luego se cuelga, los creadores ya están avisados
•Age of Mithology Gold Edition -> No hay soporte para Windows 7 disponible
•Dungeon Siege - Legends of Aranna -> No hay soporte para Windows 7 disponible
•Xpand Rally v1.0 -> El sistema anticopia impide su arranque
•Medieval 2 - Total War Battle Collection -> No hay soporte para Windows 7 disponible
•Age of Mithology Titans -> No hay soporte para Windows 7 disponible, aún
•Microsoft Zoo Tycoon - Complete collection -> Según Microsoft no habrá soporte
•SpellForce v1.52a -> Cuelgues aleatorios o incluso no arranca
•Ultimate Spider-man -> No hay soporte para Windows 7 disponible
•Acronis DiskDirectorSuite v10.0.2241 -> Varios problemas con funciones que requieren reiniciar Windows
•Microsoft SoftGrid Application Virtualization for Desktops -> Microsoft aún no ha ofrecido soporte bajo Windows 7 para esta herramienta
•Sacred 1 v1.0 -> Sin un añadido (add-on -> quizá Sacred Plus) el juego no funciona bajo Windows 64 bits
•Sacred 2 Blood and Ice -> No hay soporte para Windows 7 disponible
•3dfx Voodoo 3 3000 PCI -> Esta tarjetas no tienen controladores para Win 7
•3dfx Voodoo 5 5500 PCI -> Esta tarjetas no tienen controladores para Win 7
•GeForce FX 5xxx -> Esta tarjetas no tienen controladores para Win 7
•Act of War: Direct Action -> La versión de 64 bits tiene problemas con más de 3 GB de RAM, se puede corregir con la herramienta BCDEDIT
•Act of War: High Treason -> El sistema anticopia impide que arranque, aún no hay solución
•Age of Conan Version Update #5 -> Con dicha actualización la pantalla se queda en negro
•F.E.A.R. 2 Project Origin v1.02 -> Depende mucho de la máquina pero es posible que no funcione
•Fallout 3 v1.6 -> Depende mucho de la máquina pero es posible que no funcione
•Final Fantasy 11 -> Depende de la máquina, ejecutarlo como administrador puede minimizar los problemas
•Half-Life v1.1.1.0 -> En algunas máquinas hay un error con la función de Windows 7 "Data Execution Prevention"
•Neverwinter Nights I : SoU & HotU v1.69 -> Hay que ejecutarlo com administrador y normalmente no funciona bien hasta la segunda vez
•Starcraft: Brood War v1.16.1 -> Depende mucho de la máquina pero es posible que no funcione
•SWAT 4 -> Depende mucho de la máquina pero es posible que no funcione
•Ati Tray Tools v1.6.9.1386 -> Problemas con la versión de 64 bits de Windows 7
•Atitool Version 0.25 Beta 15 -> Problemas con la versión de 64 bits de Windows 7
•Macromedia Fireworks v8 -> No es compatible con los efectos Aero, pero funciona perfectamente
•True Crypt v6.2a -> No tiene soporte para Windows 7
•Tuneup Utilities 2009 -> oficialmente sólo la versión siguiente soportará Windows 7
•VirtualCD 9 -> No es compatible con Windows 7
•Virtual Clone Drive -> Cuelgues aleatorios del explorador de Windows con la versión de 64 bits
•Adaptec U160 Host Adapter -> No hay controladores adaptados pero es posible que funcionen los de Windows Vista
•D-link DWL 520+ v4.31 -> Aún no hay drivers disponibles, pero deberían llegar
•Netgear WG111v2 v3.4.0 ->Falta la firma digital para sus controladores
•Nvidia Nforce2 Version 5.10 -> No hay soporte para este chipset aunque funcionando en modo compatibilidad con Windows XP algo funciona
Aparte de todo este listado mostrado en su galería de imágenes también citan problemas con Flight Simulator X: Acceleration, Kaspersky Internet Security 2009, G-Data Internet Security 2009 y Assassin's Creed.

En fin, si estamos peleándonos con alguno de estos programas, al menos no estamos solos.

Google podría vender su propio teléfono inteligente

martes, 27 de octubre de 2009

Google podría dar un atrevido paso en el mundo de la telefonía móvil: vender su propio teléfono inteligente (smartphone). Según Thestreet.com, se trataría de un teléfono fabricado por HTC con la marca de Google y que no se vendería a través de las operadoras. Emplearía los circuitos clásicos de distribución.


Los analistas consideran que se trataría de una operación muy arriesgada por parte de Google ya que podría molestar a los fabricantes de teléfonos móviles que han adoptado el sistema operativo de Google, Android, para sus teléfonos. El smartphone podría salir a finales de año o en 2010 aunque, a falta de confirmación por parte de la compañía, los analistas no descartan que se abandone el proyecto.

Actualmente, el sistema operativo de Google para móviles está instalado en 12 teléfonos de 32 operadoras en 26 países.

La operación se sumaría a los planes de la empresa de lanzar su propio miniportátil con el sistema operativo Chrome, que ha de salir al mercado el próximo año.


Redtel, que agrupa a las cuatro principales operadoras de telecomunicacones en España (Telefónica, Vodafone, Orange y Ono), considera que "no tiene sentido" aumentar los costes de las empresas del sector incluyendo Internet dentro del servicio universal, tal y como se recoge en la consulta pública abierta desde mediados de este mes por el Ministerio de Industria, Turismo y Comercio.


"En momentos como el actual, de coyuntura económica adversa, no tiene sentido aumentar los costes de las empresas inversoras vía mayores obligaciones del servicio universal, sino todo lo contrario", indicaron fuentes de la patronal a Europa Press. Asimismo, Redtel indicó que lo que sí sería "más lógico y no se está haciendo" es facilitar los despliegues de manera que se abarate la inversión que realizan los operadores. "En todo caso, parece prudente esperar a que la Comisión Europea se pronuncie sobre la ampliación o no del concepto de servicio universal", añadió.

Un portavoz de Jazztel indicóque, si bien la compañía está a favor de que Internet llegue a toda la población, considera que este servicio debería ir a cargo del Gobierno sin que "penalice la capacidad inversora" de las operadoras. Sobre la posibilidad de que el acceso a Internet de un mega pudiera convertirse en el nuevo requisito del servicio universal, el secretario de Estado de Telecomunicaciones, Francisco Ros, explicó en un encuentro digital con los lectores de 'El Economista' que el acceso funcional a Internet es un servicio universal en España y en "muy pocos" otros países.

Ros precisó que desde el Gobierno trabajaban en que se convierta en servicio universal no sólo el acceso funcional, sino también el acceso con "unos niveles de banda ancha actualizados a los momentos actuales". "No hay todavía ningún país Europeo que haya adoptado una medida en ese sentido y, por lo tanto, estamos siendo de los primeros países en plantear una opción como la que le menciono", aclaró Ros.

El Ministerio de Industria, Turismo y Comercio comunicó el pasado 13 de octubre que había abierto consulta pública sobre las prestaciones de la banda ancha como elemento del servicio universal, así como sobre los aspectos más relevantes a considerar en la designación de operador u operadores que desempeñen esta función a partir del 1 de enero de 2011. El plazo para que todos los interesados, desde los operadores hasta los propios usuarios, remitieran su opinión a Industria finalizaba este lunes. Entre los aspectos fundamentales que recoge dicha consulta está la velocidad nominal mínima que deberá proporcionarse a todos los ciudadanos que lo soliciten, independientemente de su localización geográfica, la utilización de tecnologías móviles en el acceso, los modelos tarifarios de la banda ancha del servicio universal o el calendario de implantación. El servicio universal, cuya prestación se garantiza a todos los ciudadanos que lo soliciten, incluye la telefonía, los servicios de ayuda al establecimiento de llamadas, la telefonía de uso público desde cabinas, el acceso funcional a Internet de banda estrecha, el abono social para usuarios con necesidades sociales especiales y otras medidas específicas para los usuarios con discapacidad.

El Parlamento europeo avala las leyes más duras contra las descargas P2P

lunes, 26 de octubre de 2009

El Parlamento europeo avala la política de los estados que han decidido combatir las descargas ilegales de P2P cortando el acceso a Internet de quienes considere culpables de ello. En el debate sobre el paquete de medidas reguladoras de las telecomunicaciones ha caído la enmienda 138, largamente defendida por las asociaciones de internautas, que impedía que las autoridades pudieran cortar la conexión sin permiso judicial.


El Parlamento europeo se había opuesto inicialmente a iniciativas como las del Gobierno francés al considerar el acceso a Internet como un derecho humano. En este sentido se redactó la enmienda 138 que establecía que cualquier medida que restrinja derechos fundamentales o libertades "debe tomarse en circunstancias excepcionales" y obligaba a una intervención judicial. Al decaer esta enmienda, el parlamento acepta que las autoridades administrativas de cualquier país puedan cortar el acceso a Internet de un usuario acusado de acumular descargas ilegales.

La Quadrature du Net, uno de los sitios que ha encabezado la defensa de esta enmienda, escribe en sus páginas que "con este repliegue, el Parlamento europeo ha asumido la idea errónea de que, en virtud de los tratados, no tiene ningún poder para proteger los derechos ciudadanos".

Los ordenadores portátiles van asomando poco a poco a las aulas, pero desde luego no llegarán este curso a todos los alumnos de 5º de primaria, como prometió el pasado mayo en el Congreso el presidente del Gobierno. Mientras Cataluña dividirá el arranque entre primaria y secundaria, La Rioja lo llevará sólo a aquellos centros que lo soliciten y en Cantabria los portátiles llegarán a la mitad de los centros, aunque el resto de la equipación del proyecto sí estará lista en todos. Además, en Madrid y Valencia está por ver si llegará alguno.

De momento, el proyecto aún no tiene ningún reflejo en las escuelas de ocho comunidades: La Rioja, Galicia, Baleares, Murcia, Castilla y León, Canarias, Madrid y Valencia. Ni siquiera en forma de las aulas piloto que el Ministerio de Educación dijo que iban a ser la avanzadilla del plan en el arranque de este curso, aunque en las dos comunidades isleñas está previsto que lleguen pronto.

Algunas autonomías están más avanzadas (en Aragón ya tienen tablet PC casi todos los alumnos de centros públicos de 5º y 6º por un proyecto propio con el que llevan años, y ahora van a por la secundaria); otras, como Andalucía, ya están repartiendo portátiles entre los docentes, pero todo parece indicar que este curso será el del ajuste (o desbarajuste), entre convenios y concursos para comprar el material del programa Escuela 2.0. Se trata de un proyecto de enorme envergadura, probablemente el más ambicioso del Gobierno central para introducir las nuevas tecnologías en la escuela: pretende dotar a todos los alumnos de 5º y 6º de primaria y 1º y 2º de ESO de un portátil -ya no está tan claro que todos se lo puedan llevar a casa-, también a sus profesores, y que sus aulas cuenten con pizarra digital y conexión a Internet.


Tras el anuncio del presidente del Gobierno el pasado mayo, Educación ya ha explicado en varias ocasiones que habría que adaptar la idea a las necesidades, características y programas previos de cada comunidad. Así, se empezó a negociar con cada autonomía un convenio concreto: Educación pone encima de la mesa un dinero (200 millones en 2009-2010 repartidos para toda España) y cada comunidad tiene que poner una cantidad igual para un programa que, aunque adaptado, tiene que cumplir unos mínimos: los portátiles para alumnos y profesores, la pantalla digital y la conexión a Internet tienen que llegar en cuatro años a todos los alumnos de 5º de primaria a 2º de ESO. Antes de abril de 2010, tendría que estar cubierto un cuarto del objetivo, es decir, el equivalente al alumnado de un curso completo. Educación asegura que el proyecto avanza "a una velocidad adecuada".


Ya están cerrados los acuerdos con 10 comunidades y los convenios podrían empezar a firmarse la próxima semana. Pero el resultado de este primer curso no llegará al objetivo que marcó Zapatero en el Congreso. En Cataluña, recibirán el portátil 33.220 alumnos (21.720 de secundaria y 11.500 de primaria), cifra que no llega a cubrir un curso entero (que sólo en la pública rondan los 40.000 alumnos). En La Rioja, el proyecto sólo se llevará a los centros que lo pidan y presenten un proyecto para ponerlo en marcha en cualquier curso de 5º de primaria a 2º de ESO, explica el director general de Ordenación e Innovación Educativa de La Rioja, Rafael Federío. Eso sí, si hay iniciativas suficientes, hay dinero para cubrir el equivalente a un curso entero este año escolar. En Cantabria han hecho algo parecido, aunque están en un estadio más avanzado. Han preguntado a los colegios públicos cuánto se quieren implicar, con lo que el ordenador se repartirá este curso a los alumnos de 5º de la mitad de los centros.


Además, algunos convenios con varias comunidades gobernadas por el PP están atascados. Murcia y Galicia no dan información más allá del hecho de que aún no hay convenio y que no han empezado a hacer nada más allá de sus propios proyectos, aunque fuentes del ministerio aseguran que el acuerdo con Murcia sí está cerrado. En cualquier caso, las consejerías de Madrid y Valencia mandaron el pasado martes una carta conjunta al Ministerio de Educación pidiendo una reunión para desatascar la negociación. Un portavoz del ministerio dice que están dispuestos siempre a negociar, pero que los mínimos (y también el dinero) ya se acordaron antes del verano con las comunidades.


El caso es que uno de los escollos con Madrid y Valencia es la financiación, ya que en la carta piden al ministerio que no se generalice el proyecto este año, sino que se empiece con algunos proyectos piloto, para utilizar el dinero en otras cosas que no se contemplan, como el mantenimiento de los portátiles y la extensión de las conexiones a Internet. En cualquier caso, aunque de forma desigual, la puesta en marcha del programa ya ha arrancado, empezando en la mayoría de ellos por la formación de los docentes. En muchas de ellas, sí habrá un portátil para cada alumno de 5º antes de que termine este curso:


- Andalucía. Se han comenzado a repartir los portátiles a los docentes. En noviembre arrancarán 132 aulas piloto y en enero se empezarán a repartir más de 173.000 ultraportátiles entre alumnos de 5º y 6º de primaria.


- Aragón. Tienen portátil casi todos los alumnos de 5º y 6º de primaria con el programa de tablets PC, muy parecido al Escuela 2.0. El 26% de los colegios concertados también lo tienen ya. Todo se irá convirtiendo en los próximos años en el proyecto común, que ha arrancado ya para 100 alumnos de 14 aulas de 1º de ESO.


- Baleares. La comunidad quiere tener digitalizadas las aulas de 5º y 6º de primaria -portátiles incluidos- en septiembre de 2010. De momento, preparan programas piloto en seis centros que arrancarán posiblemente antes de Navidad.


- Canarias. En noviembre empezarán a funcionar aulas digitales en dos centros (uno en Tenerife y otro en Gran Canaria), y antes de abril de 2010 el proyecto llegará a los 18.000 alumnos de 5º de primaria de los colegios públicos y concertados, dice la consejería.


- Castilla y León. El convenio con el ministerio ya está pactado, asegura un portavoz de la consejería. Antes de diciembre se empezarán a repartir los ordenadores entre profesores y alumnos.


- Castilla-La Mancha. Desde el curso pasado, en cuatro centros rurales usan ya los miniportátiles. En enero empezarán a entregar masivamente los PC e instalar las pizarras digitales y esperan que seis semanas después hayan llegado a todo 5º.


- Extremadura. La comunidad estaba muy avanzada en introducción de tecnologías en las aulas, pero con ordenadores de sobremesa. El curso pasado arrancó en un colegio de Plasencia un proyecto con portátiles, que se extenderá a todos los alumnos de 5º antes del próximo abril.


- Cataluña. Está ultimando la firma de un acuerdo con el Gobierno central para que los portátiles lleguen a 250.000 alumnos. Este cursose entregará a 33.220 estudiantes un ordenador ultraligero (a los padres les costará 150 euros). Será en septiembre de 2010 cuando los tengan los 120.000 alumnos catalanes de 1º y 2º de secundaria. En 2011, los de 5º de primaria y en 2012, 6º.


- Asturias. Con 60 alumnos estudiando ya con el portátil, el Gobierno asturiano quiere llevar en este primer trimestre el programa a un centenar de centros y, a partir de febrero, al resto de alumnos de 5º de primaria: más de 6.600 estudiantes. Lo primordial, dice la consejería, es que las pizarras digitales y las conexiones a Internet estén listas cuando lleguen los ordenadores.


- País Vasco. Las aulas digitales funcionarán en los centros públicos y concertados de Euskadi a partir del próximo mes de febrero. Más de 18.500 alumnos de 5º de primaria recibirán su portátil. Los chavales podrán sacar los ordenadores del colegio, pero los que lo hagan deberán pagar una fianza de unos 50 euros. El primer ensayo con estos portátiles se ha desarrollado a principios de este mes en tres colegios en la localidad vizcaína de Muskiz.

Internet mejora el rendimiento mental de personas mayores

Investigadores en UCLA han afirmado que el uso de Internet tiene un efecto positivo de personas mayores, en cuanto a rendimiento y actividad del mismo.

Han llevado a cabo la idea de que aprender a usar Internet estimula patrones de activación neural y podría mejorar las funciones del cerebro y del conocimiento en personas mayores.

Teena D Moody, investigadora senior asociada en Semel Institute de UCLA, ha comentado que los resultados de su estudio podrían confirmar que realizar búsquedas online podría ser una forma de ejercitar el cerebro que podría ser empleado para mejorar la actividad cerebral en adultos de avanzada edad.

El coautor Dr Gary Small, profesor de psiquiatría en el Semel Institute de Neurociencia y Comportamiento Humano en UCLA,ha corroborado las afirmaciones de Moody: “Hemos visto que gente mayor con experiencia mínima, realizando búsquedas en Internet por un corto periodo de tiempo, pueden cambiar los patrones de actividad del cerebro y mejorar su función.

La presidencia de Francia viola sus propias leyes antipiratería

viernes, 23 de octubre de 2009

Francia en el último tiempo ha hecho noticia por su famosa y criticada Ley Hadopi, con la que esperan reducir drásticamente la piratería en Internet (o la piratería en general). Esta ley recibió el respaldo del gobierno francés, teniendo a su presidente Nicolas Sarkozy como su principal impulsor.

El caso es que los servicios audiovisuales de la presidencia francesa realizaron 400 copias en formato DVD del documental “A visage decouvert: Nicolas Sarkozy”. Lo insólito del caso es que dichas copias fueron realizadas sin autorización de sus autores y, con el objeto de pasar desapercibidos, cambiando la carátula y logotipos del editor por unos diseñados por ellos mismos (a eso yo lo llamo un excelente trabajo pirata).

Lo más lamentable del caso es que no es primera vez que sucede algo así, porque con anterioridad se había utilizado indebidamente una canción del dúo MGMT durante un mitín político organizado por el partido del presidente Sarkozy. Por este hecho y con el objeto de evitar un escándalo de proporciones, tuvieron que cancelar una indemnización de 30.000 euros.

Noticia enviada por Duncan Jacques

Vota Resultado 95 votos El próximo lunes Telefónica comercializará" ADSL Libre" por 32,9 euros al mes (más IVA). Es el primer servicio de la compañía que no lleva asociado un consumo de voz, por lo que el abonado no deberá pagar las cuotas mensuales del servicio telefónico básico.


Esta nueva modalidad de conexión de datos lleva asociado un ADSL de 3Mb, que suma a las ventajas de no contar con restricciones horarias y no tener límite de descargas. Se trata de un único servicio de Internet de banda ancha sin cuotas mensuales por la línea de voz. La compañía afirma que el coste será de 32,9 euros al mes y que el internauta contará con una nueva modalidad de conectividad de banda ancha "más eficiente y con un coste reducido siempre que no tenga necesidad de contar con una línea para las llamadas de voz".

La nueva oferta de Telefónica llega después de que la Comisión del Mercado de Valores (CMT) haya autorizado al operador dominante a que pueda ofertar este servicio conocido como 'ADSL naked' (desnudo) y dos meses después de la oferta de su competidor Vodafone.

Windows 3.11, Windows 95, Windows 98, Windows Me, Windows 2000, Windows XP, Vista y ahora Windows 7

jueves, 22 de octubre de 2009



Microsoft empieza a vender hoy en todo el mundo Windows 7, el nuevo sistema operativo llamado a sustituir en los ordenadores al infausto Vista (ahora se reconoce abiertamente lo malo que es) y al exitoso XP, que ha encontrado una segunda juventud con los portátiles baratos. Aunque este sistema tendrá el soporte de Microsoft hasta 2014, algunas aplicaciones de terceros lo dejarán de tener en 2012, lo que obligará a las empresas -que en su mayoría no migraron de XP a Vista- a cambiarse al 7, con el consiguiente gasto (Gartner ha llegado a cifrar en 900 euros el gasto por puesto de saltar de XP a W7). Ballmer, con todo, maneja otro estudio de Gartner sobre W7 que evalúa ahorros anuales entre 25 y 98 dólares por puesto según las áreas. El impacto de la aparición de un sistema operativo de Microsoft es también un acontecimiento para la industria del ordenador por la posible revitalización del mercado, aunque en esta ocasión ni el mismo Steve Ballmer espera un gran repunte. También es un buen hito para repasar la encrucijada en la que se encuentra Microsoft, dominador en el software personal, pero que en Internet no tiene el mismo protagonismo.


_____________________________________________________________

Cual os gustó mas?

Windows 3.11


Windows 95
Windows 98
Windows Me Windows 2000 Windows XP
Windows Vista Windows 7

Magic Mouse repite errores en la historia del mouse de Apple

Vaya día el de ayer, con la presentación de tantos productos de Apple cualquier otra noticia queda en nada. Pero entre portátiles y ordenadores de sobremesa yo me quedo con una cosa que esperaba con ansia, el nuevo Magic Mouse.



Se rumoreaba, como siempre pasa, que Apple estaba investigando en un sensor multitáctil para un ratón, al final es cierto, bueno, a medias, porque se creía que vendría en aluminio. Pero lo cierto es que este nuevo mouse es un gran avance en periféricos, tanto para Apple como el resto de competidores, no doy ni 3 meses hasta que HP, Dell, Microsoft y otras empresas presenten su versión de mouse multitáctil. Pero eso es normal, a nadie le debería de extrañar.

Lo que me ha molestado al final, después de verlo en mano de otra persona y de ver las fotos en Apple.com y su vídeo promocional, es que no es lo que esperaba. Me explico, sí que esperaba un mouse multitáctil, pero no con los mismos fallos que Apple ha repetido en sus ratones.

Pero primero…

Breve historia del mouse en Apple
Los primeros modelos de mouse de Apple son… antiguos. El ratón más cercano a Magic Mouse es el Pro Mouse, un ratón óptico que se introdujo en el año 2000, seguido del Wireless Mouse en el año 2003, seguido del famoso Mighty Mouse presentado en 2005, y hasta el día de hoy.

Todos estos ratones han pasado un proceso de diseño “made in Apple”, pero también han recopilado una larguísima historia de quejas porque los ratones de Apple simplemente no son buenos. El Mighty Mouse en especial, las quejas de que su bolita de scroll de 360º son interminables, algunos se solucionan limpíandolos de forma agresiva pero otros no funcionan por algún componente roto.

¿Dónde esta la ergonomía?
¿Magic Mouse es demasiado plano?
No, en serio ¿donde demonios esta la ergonomía? Elige cualquier competidor de Apple, cualquiera, todos tiene ratones más erngónomicos que esta “pastilla Dove”, como dice Inti. Cualquier hijo de fanboy me podría decir que este ratón es simplemente perfecto, claro, trabaja durante 16 horas con este ratón y compáralo con un Logitech Performance Mouse MX. Sí, es más pesado, no es multitouch, es más “feo”, pero no te dejas la mano en el proceso.

Apple se caracteriza por reinventar toda la industria del PC cada 5 años1, como es posible que no diesen con un diseño que sea ergonómico y que a la vez sea bonito. O incluso quizá olvidarse de una vez del mouse, que todo sea un touchpad multitáctil como el de los portátiles, junto al teclado.


Como funciona el sistema multitáctil
No vamos a negar algo que es obvio, este es un ratón increíble, Apple ha dado con la forma de crear una superficie multitáctil en un formato curvo, bien por sus ingenieros, se nota quien se gana el sueldo.

Casi toda la superficie del mouse es sensible al táctil, el sensor llega más o menos a un centímetro del logo de Apple en la parte inferior, pero eso si, cubre toda la zona con la que puedes llegar con los dedos. Es la misma tecnología usada en los trackpad de Apple en los MacBook Pro y MacBook, solo que la superficie de esta es curva. Básicamente es un panel de sensores ópticos que cuando se presiona, crea una pequeña corriente eléctrica indicando posición en un eje X-Y al moverse.

Hay un chip dentro del mouse que se usa como procesador para captura y entender que es lo que hacen los dedos. Reconoce cualquier movimiento actual, círculos, arrastrar, deslplazamiento…

El precio no compensa
Dios mio, ¿pero cuanto cuesta la innovación? El precio final del Magic Mouse en la tienda de Apple de España es de 78,16€, incluyendo los impuestos. Casi 80€ por un ratón, que doy la razón a todo el mundo, es increíble y tecnológicamente hablando muy avanzado, pero siguen siendo 80€ por un mouse plano Bluetooth.

Nuevos iconos para informar del contenido de los videojuegos

miércoles, 21 de octubre de 2009



El sistema que informa a padres y tutores sobre los contenidos de los videojuegos cambia su imagen. El nuevo diseño de los logotipos informativos se basa en las luces de seguridad vial, de forma que la paleta de colores de los semáforos agrupará las siguientes categorías: verde en los juegos para 3 y 7 años; ámbar en los calsificados para 12 y 16 años y rojo, en el caso de juegos para mayores de 18 años.



El sistema clasifica estas edades en función de elementos como el grado de violencia y acción presentes en los juegos, la referencia a contenidos para adultos o la presencia de palabrotas entre otros. Los indicadores de edad se hacen más sencillos al prescindir del clásico signo de "+" que acompañaba a los números.


Los sellos de edad van acompañados de términos pictográficos sobre el contenido del juego. Estos pictogramas presentan dos mejoras destacables: por un lado se informa con detalle del contenido para adultos y por otro se incorpora la etiqueta de jugabilidad en Internet (PEGI Online). Los requisitos de PEGI Online contemplan la obligación de mantener un sitio web libre de contenido ilegal u ofensivo y cualquier enlace indeseable, así como medidas de protección de los jóvenes y su intimidad cuando participen en juegos en línea.


Como novedad se incorpora la descripción del contenido a pie de pictograma, para facilitar el entendimiento del mismo. Así, por ejemplo, un juego en el que se empleen palabras malsonantes llevará en su carátula un icono con el lema "Lenguaje soez" en el inferior. Que se trata de un juego de miedo se avisa con la imagen de una araña y la palabra "Miedo" en su parte inferior. Existe la opción de enriquecer la información de los pictogramas de edad y contenido con una descripción breve del juego dirigida al tutor.


El Reino Unido ya ha adoptado este añadido en forma de "aviso al consumidor" Una de las tendencias más reseñables de la industria del videojuego es el consumo de los casual games, aquellos juegos de bajo coste que se pueden descargar desde Internet para teléfonos, ordenadores y dispositivos similares. La etiqueta PEGI OK informará a padres y tutores qué juegos son aptos para todos los públicos y si las plataformas web que los venden ofrecen las garantías de seguridad requeridas. Se trata de un código paneuropeo asumido por la aDeSe (Asociación de Distribuidores y Editores de Software de Entretenimiento).

Los internautas rompen una mordaza judicial en Gran Bretaña


El pasado mes, un juez británico ordenó que el material obtenido por un periodista de The Guardian sobre los manejos de una multinacional debían mantenerse secretos. Tampoco podía publicarse ninguna información sobre la propia orden del juez. Twitter y otros blogs de la red social, sin embargo, rompieron el silencio.

El conflicto data de 2006 cuando una compañía de transporte, Trafigura, pagó a una empresa local de Costa de Marfil para deshacerse de 400 toneladas de gasolina de baja calidad. El operador contratado se limitó a esparcirla por las cercanías de la ciudad de Abidjan. Según The New York Times, 85.000 personas necesitaron cuidados médicos, paralizando el frágil sistema sanitario del país. Ocho personas fallecieron a causa, al parecer, de la exposición a esta basura química.

Trafigura pagó, en 2007, 225 millones de dólares al Gobierno de Costa de Marfil pero no reconoció la culpabilidad en el caso. Hace un mes, en un proceso en Gran Bretaña, la empresa acordó pagar 1.500 dólares por persona a 30.000 residentes de Costa de Marfil por lo sucedido, pero alegando que no pudo prever ni la peligrosidad ni los reprochables actos de la empresa subcontratada. Sin embargo, un informe científico solicitado por los abogados de Trafigura desmentiría esta ignorancia. El informe cayó en manos de un redactor del citado diario. Trafigura acudió al juez pidiendo protección ante la filtración de un documento confidencial.

El documento, sin embargo, se filtró en Wikileaks antes de la prohibición judicial, lo que permitió a un miembro del parlamento británico hacer una pregunta sobre el tema. Aunque las intervenciones en el parlamento no pueden ser objeto de censura, la orden que silenciaba la existencia del documento seguía viva. Pero varios internautas localizaron el debate en una web del Gobierno británico y empezaron a difundir su existencia en Twitter y otros sitios. Entre los mensajes se incluían llamadas a la desobediencia de los reporteros británicos para que enlazaran a los mensajes de Twitter. El escándalo organizado, que incluía crípticas referencias a Twitter en el propio The Guardian, provocó que la empresa liberara la pasada semana el documento junto a una declaración en el sentido de que no se trataba de un estudio definitivo que permitiera prever el daño ocasionado.

El autor del primer mensaje en Twitter sobre el documento comentóque este episodio demuestra a los detractores de Twitter que con 140 caracteres se pueden decir muchas cosas.

Aumentan las ventas de videojuegos


Las cifras del mercado de los videojuegos estaban retrocediendo desde hace 6 meses, pero los nuevos datos para el mercado norteamericano muestran que la recuperación del sector parece estar produciéndose ya.

Gracias a lanzamientos como Halo ODST y The Beatles: Rock Band, las ventas del último mes de consolas y videjuegos creció ligeramente para llegar a los 1.280 millones de dólares, algo mejores que los 1.270 millones de dólares del mismo mes del año anterior.

Las cifras provienen de la consultora NPD Group, y reflejan una mejoría tras una mala racha de 6 meses en las que las ventas habían empeorado con respecto al año anterior. El juego Halo ODST ha sido el más importante en ventas con 1,52 millones de copias, mientras que Wii Spot Resort (443.000), Madden NFL10 (289.600), Mario & Luigi: Browser’s Inside Story (258.100) y The Beatles: Rock Band (254.000) se situaban detrás.

Gama iMac renovada


Apple acaba de modernizar la gama de ordenadores de sobremesa con el nuevo iMac, cuyas principales novedades son las pantallas y los procesadores que ahora integra.

Se dejan atrás los modelos de 20 y 24 pulgadas para pasar a paneles IPS retroiluminados por LED de 21,5 y 27 pulgadas, de 1920x1080 y 2560x1440 píxeles respectivamente. Es decir, pasan a un formato 16:9.

En cuanto a los chips, nos encontramos los nuevos Core i5 a 2,66 GHz y Core i7 a 2,8 GHz, ambos quad core. De base encontramos un Core 2 Duo a 3,33 GHz.


Todos ellos llegan con 4 GB de RAM DDR3 de fábrica, disco duro de 1 TB (excepto el más básico, con 500 GB, gráficos Radeon HD 4670 de ATI con 256 MB (excepto el más potente con una Radeon HD 4850 de ATI de 512MB). Todos ellos, además, cuentan con una NVIDIA 9400M en su interior que funcionará en régimen de bajas prestaciones.

Por lo demás, hereda ciertas características del MacBook Pro como el lector de tarjetas SD, y se descarta la unidad Blu-ray, al menos por el momento.

Los precios van desde 1.049€ hasta los 1.749€, siempre hablando de las configuraciones predefinidas en la Apple Store.

Video PARTY Octubre 2009

martes, 20 de octubre de 2009

Bueno , amigos, una vez más nos hemos currado una "party".

Creo que se nos queda de esta edición la cara de deseo fustrado de manu de tener el trofeo entre sus manos y eso de que lo ganara "MEDICUS" lo dejó un poco trastornado. Ni siquiera rindió en el CALL of DUTY........................



Os imaginais que meses nos hubiera dado si hubiese ganado él?

Ya queda menos para la siguiente edición, que si Dios quiere se adelantará para que puedan asistir Piccolo y Dani , dado que las fechas de parto de sus mujeres se aproximan mas o menos a marzo -abril.



Un abrazo a todos! :)





Telemedicina contra las listas de espera

lunes, 19 de octubre de 2009


Decenas de miles de pacientes británicos no tienen a sus radiólogos en su propio hospital, ni en su ciudad, ni siquiera en su país. Ante la falta de especialistas, el National Health Service lleva años llegando a acuerdos con clínicas extranjeras. Algunas están en Bélgica, otras son suecas -una de las cuales, Telemedicine Clinic, tiene sede en Barcelona-, a las que envían las imágenes por Internet (resonancias magnéticas, por ejemplo). Allí las analizan y remiten de vuelta a sus colegas del otro lado del canal de la Mancha, informes con el diagnóstico del enfermo en una particular variedad de subcontrata sanitaria.

Si existiera un error, ¿de quién sería la responsabilidad? ¿Del médico británico que atiende a su paciente o del belga que lo ha diagnosticado a distancia? No está muy claro. Como sucede en otras parcelas, el desarrollo de las tecnologías de la comunicación y la información (TIC) ha irrumpido de tal forma que, en la misma medida que soluciona problemas, plantea otros, no sólo de regulación (responsabilidad de actos médicos, confidencialidad de datos), sino de encaje en unas estructuras de salud demasiado rígidas. Pero, a pesar de ello, pocos dudan que representan una de las principales herramientas con las que contará la sanidad para resolver los problemas asistenciales del presente y del futuro.

Más pacientes, con más enfermedades y más viejos. La sanidad de los países desarrollados está marcada en buena parte por estos factores, a los que se suma el coste creciente de fármacos y tratamientos, cada vez más sofisticados. En España, en torno al 15% de los pacientes genera el 65% del gasto sanitario. Pero además, estas personas, que suelen ser mayores de 65 años, no padecen sólo una enfermedad, sino varias a la vez, y generalmente crónicas. Así, de todos los diabéticos, sólo el 8% tiene únicamente esta enfermedad. Lo habitual es que además padezcan hipertensión, obesidad, hipercolesterolemia... En 2020 se estima que más del 60% de las patologías serán crónicas.

Las recetas milagrosas no existen, y menos ante este escenario tan complejo. Sin embargo, la aplicación de las TIC se presenta como un instrumento clave para hacer una sanidad más sostenible. Y tanto Europa, junto a países como Australia o Canadá, están tomando la delantera en este tipo de aplicaciones, que abarcan desde la informatización de los historiales clínicos de los pacientes, a las teleconsultas o el telediagnóstico, pasando por las intervenciones robotizadas.

La irrupción generalizada de Internet en los hogares, el incremento de las capacidades de los teléfonos móviles y las posibilidades que abre la televisión digital terrestre apuntan hacia una nueva dimensión en la telemedicina. "Éstos son los tres pilares que harán posible un cambio de provisión de servicios sanitarios", asegura Carlos Hernández Salvador, jefe de proyectos de la Unidad de Telemedicina y e-Salud del Instituto de Salud Carlos III.

El salto, especialmente en telemedicina para crónicos y mayores, no tiene pinta de estar muy lejos, según su compañero, José Luis Monteagudo, jefe de la Unidad de Telemedicina y e-Salud de este instituto sanitario, vinculado al Ministerio de Sanidad. "Se están concentrando tal cantidad de intereses, nuevos actores, posicionamiento de empresas, cambios tecnológicos, redes sociales... que da la impresión de que nos encontramos en un momento de saturación que puede ser precursor del cambio", sostiene.

En este campo "por una vez, Europa lleva la delantera a los Estados Unidos", apunta Gérard Comyn, jefe de la Unidad TIC para la salud de la Dirección General de la Sociedad de la Información de la Comisión Europea. En cabeza se sitúan los países nórdicos, donde la historia clínica digitalizada es operativa en el 90% del sistema sanitario. A la cola, los últimos Estados incorporados a la UE, que "están descubriendo la e-salud", con excepciones "como puede ser Eslovenia".

Sin embargo, ni siquiera en el interior de los mismos Estados el nivel de desarrollo es homogéneo. "El factor regional es un elemento clave", apunta Comyn en conversación telefónica desde Bruselas.

Los países con sistemas administrativos descentralizados permiten que gobiernos locales apuesten por este tipo de tecnología y logren desarrollos más avanzados y adaptados a las particularidades de la zona. Es el caso de Andalucía, como destaca el responsable de TIC de la UE, donde "empezaron hace 10 años con la prescripción electrónica o la integración del historial clínico en un archivo informático único". También destaca el trabajo desarrollado en Cataluña, en este caso, para el tratamiento de enfermos crónicos por teleconsulta, acompañado por una nueva organización de los servicios hospitalarios.

En países de tradición más centralizada, como Francia o Alemania, sin embargo, se han dado problemas al tratar de aplicar pautas globales para todo el Estado, que ofrecen resultados diversos en función de los departamentos donde se aplica. Canadá y Australia, países con una dispersión de población muy amplia, son otros Estados que han apostado fuerte por la e-health, frente a Estados Unidos, donde "se prioriza la estructura hospitalaria".

Al margen de los diferentes ritmos de incorporación a este tren en marcha de los distintos sistemas de salud, cada vez hay más consenso sobre las ventajas de las aplicaciones de las TIC a la sanidad. Por un lado, los beneficios redundan directamente en los pacientes. El hecho de poder pasar consulta desde el centro de salud de una pequeña población rural con el servicio de cardiología de un hospital a 150 kilómetros a través de una pantalla, como sucede en Extremadura, es un ejemplo de evidente comodidad que evita desplazamientos. Pero, además, los sistemas de monitorización de enfermos -crónicos o recién operados- desde casa a través del envío de datos al hospital, donde son supervisados por el médico, evitan un buen número de ingresos, especialmente en urgencias. Una revisión de estudios del British Medical Journal en 2007 mostró que este tipo de control a crónicos redujo las tasas de ingresos por fallo cardiaco un 21% y todas las causas de mortalidad un 20%.

A estas ventajas, se suman las que aportan a los sistemas de salud. Especialistas de la UE destacan en el documento Telemedicina al servicio de los pacientes, los sistemas de salud y la sociedad, de junio de este año, aspectos como el incremento de la eficiencia, la reducción de las listas de espera, de ingresos por descompensaciones en enfermos crónicos o el ahorro de costes que supondría la generalización de estos procedimientos. El desarrollo de dispositivos de control del ritmo cardiaco, por ejemplo, podría ahorrar por paciente y año 292 euros en Francia (un 30%) y 712 en Alemania (61%), según un artículo de Proceedings of the Computers in Cardiology Congress de 2006.

El impacto real de la e-salud en los sistemas sanitarios, sin embargo, tiene el inconveniente de apoyarse en estudios parciales. Y los especialistas que impulsan el desarrollo de estas prácticas en la UE son conscientes de ello. Para armarse de argumentos más sólidos, se está creando un sistema de evaluación que analizará el impacto de la telemedicina en siete países europeos y cuyos resultados se anunciarán dentro de unos dos años.

Existe también el problema de la falta de una regulación legal suficientemente clara y amplia para abordar el extraordinariamente extenso terreno de juego que abren las nuevas tecnologías.

De vuelta a los radiólogos belgas y los pacientes británicos, los enfermos sólo conocen al médico que les trata personalmente, no a quien les ha diagnosticado. ¿A quién presenta la reclamación? ¿Quién se responsabilizaría? "No existe una respuesta clara; pero además existen otros vacíos legales", señala el responsable de la unidad de las TIC para la salud de la UE.

Comyn comenta que para elaborar un informe radiológico es necesario que el especialista cuente también con el historial clínico del paciente, que contiene datos básicos para elaborar un diagnóstico preciso. En Europa hay directivas que regulan la confidencialidad de esta información. Sin embargo, no sucede lo mismo en otros países. Y cada vez son más numerosas las empresas de radiodiagnóstico que ofrecen todo tipo de servicios, desde y hacia cualquier punto del mundo, como, por ejemplo, segundas opiniones.

Este cambio de paradigma en la medicina que ya se vislumbra y que no supondrá un modo alternativo o paralelo de atención, sino distintas formas de prestar los mismos servicios, llevará un tiempo. Pero, además requerirá ir acompañado de "una penetración afable" de esta tecnología "centrada en las personas, tanto en pacientes como en médicos y demás implicados", según José Luis Monteagudo.

De hecho, la implicación del personal sanitario es clave para el éxito de estos desarrollos. Y hay muchas experiencias fallidas debido a estrategias equivocadas al no haberse contado suficientemente con los médicos.Comyn sostiene que no es deseable crear nuevas figuras (e-médicos, e-enfermeras...) sino reciclar en las nuevas tecnologías al personal. Se trata, ni más ni menos, del mismo reto al que se enfrentan miles de trabajadores en otros sectores que necesitan reciclarse para seguir el paso de los nuevos hábitos (de consumo, de producción, de relación) que está imponiendo el impacto de las nuevas tecnologías en buena parte de los sectores económicos.

"La disposición de los médicos es completa siempre que suponga ventajas", apunta Luis Aguilera, presidente de la Sociedad Española de Medicina Familiar y Comunitaria. Cuestión aparte es el distinto ritmo de aplicación de las nuevas tecnologías entre las comunidades autónomas o los problemas de incompatibilidades de aplicaciones informáticas que impiden el intercambio de información entre ellas.

El enorme mercado potencial de la salud electrónica es otro importante aliciente para el desarrollo de aplicaciones y un fuerte motor de cambio. De acuerdo con los datos que maneja la Unión Europea, el mercado global de la e-salud mueve 60.000 millones de euros, de los que unos 20.000 corresponden a Europa. Con estas cifras, esta parcela puede considerarse como el tercer mercado relacionado con el ámbito sanitario en el continente, detrás de la farmacéutica (205.000 millones) y la tecnología sanitaria (64.000 millones).

Con estas perspectivas económicas, las empresas han comenzado a moverse. Dos gigantes que ya han tomado posiciones son Microsoft y Google. El primero con la plataforma Microsoft HealthVault. El segundo, con Google Health. Básicamente, en ambos casos se trata de servicios gratuitos que permiten a sus usuarios albergar el historial clínico en la Red y compartirlo con quien desee. "De momento funciona como una experiencia piloto y sólo en Estados Unidos", comenta José María García, director de la división de multisector de Google España, sobre su plataforma. A través de diversos acuerdos que la compañía tiene con empresas y médicos, los pacientes pueden subirse sus datos sanitarios (análisis, pruebas, historial, médicos...) y usarlos si los necesitaran ante cualquier emergencia médica en cualquier lugar del mundo a través de la Red. "La idea es contar con una herramienta abierta que pueda contener información sanitaria de cualquier tipo de proveedor".

En los sistemas públicos, la mayor parte de esta información la albergan en sus archivos -cada vez más informatizados, aunque aún queda mucho por hacer- las diferentes administraciones sanitarias. ¿Cómo funcionaría Google Health en España? "Es un sistema sanitario muy distinto, de momento no hay planes de expansión desde Estados Unidos, ya se verá", comenta José María García.

En Europa, la movilidad de sus ciudadanos choca con la imposibilidad de intercambio de información sanitaria de sus pacientes entre los distintos sistemas de salud. Es fácil pensar que el uso generalizado de estos archivos (albergados por Microsoft, Google u otros que pudieran surgir) pudiera crear de facto estándares de almacenamiento privados paralelos a los registros públicos. "Es una forma de comenzar a desarrollar un futuro negocio", advierte Gérard Comyn.

Para hacer frente a esta eventualidad existe un proyecto piloto de la UE, denominado Epsos, que estará listo en dos años, dirigido a hacer posible, por ejemplo, que los médicos austriacos tengan acceso al historial de un paciente español que tenga un accidente en Viena mediante el desarrollo de una interoperatibilidad entre las bases de datos sanitarias nacionales. Esta alternativa trata de aprovechar todo el trabajo de informatización de los distintos países -en los que aún queda mucho por hacer- para construir una plataforma de interconexión pública europea de intercambio de historiales con las garantías que dan las leyes de confidencialidad existentes.

Con la tecnología de Blogger.