Internet, un proyecto militar fracasado

viernes, 30 de octubre de 2009

INTERNET CUMPLE 40 AÑOS. El 29 de octubre de 1969, Leonard Kleinrock, profesor de la UCLA, envió un mensaje a sus colegas del Standford Research Institute. Se trataba de comprobar que una máquina podía dialogar con otra con un nuevo protocolo. Tenía que escribir L-O-G. Llegaron la L y la O. Al primer intento, fue imposible con la G. El ordenador que empleó, Interface Message Processor, es hoy una pieza de museo. Kleinrock ha confesado que nunca imaginó a su abuela empleando Internet. Pensó que era un sistema para conectar máquinas, pero no aventuró el empleo que le han dado las personas. Este mensaje se considera el acto fundacional de Internet. Sin él, hoy el mundo se colapsaría. Así de simple. Las empresas, los sistemas de defensa de los países, el transporte, el ocio, las telecomunicaciones, la enseñanza y la sanidad. En este tiempo de constantes invenciones hay tres aplicaciones básicas, según el autor del artículo: el correo electrónico, la WWW y el sistema de intercambio de archivos P2P.



En la segunda mitad de la década de 1960, las grandes empresas constructoras de informática empezaron a desarrollar los primeros sistemas de comunicación entre ordenadores. En aquellos días, lejos de la omnipresencia actual de la tecnología microinformática, tan sólo existían lo que hoy llamaríamos sistemas propietarios, cada empresa diseñaba sus procesadores y su software, y por tanto, su sistema o arquitectura de comunicaciones.

Posiblemente influidos por la estructura centralizada de sus clientes más importantes (bancos, empresas de seguros, grandes corporaciones, etcétera), las empresas constructoras de ordenadores para la gran informática diseñaron sistemas de comunicaciones con topología en estrella, sumamente centralizados.

Un ordenador principal gestionaba y supervisaba la incipiente red que permitía interconectar diversos ordenadores satélites del ordenador principal, terminales más o menos potentes, o simples terminales de pantalla o impresión. También era posible la conexión directa entre los ordenadores satélites, aunque siempre bajo la supervisión del gestor único de la red, residente siempre en el ordenador principal.

Cada empresa tenía su sistema: SNA (System Network Architecture) en el caso de IBM, DSA (Distributed System Architecture) en el caso de Honeywell o el equivalente de Univac. Y todos estos sistemas eran incompatibles entre sí, lo que hacía casi del todo imposible (o terriblemente complicada) la interconexión de ordenadores de diversos fabricantes.


Sistemas vulnerables


Pero había otro camino alternativo, el de la futura Internet, que, a pesar de ser poco considerado durante los años setenta y ochenta por los profesionales de la gran informática, ha sido el que ha predominado. La orientación centralizada de las comunicaciones informáticas que habían previsto los fabricantes de ordenadores no resultaba en absoluto útil para los militares. Una topología en estrella resulta sumamente vulnerable: si se destruye el ordenador principal de la red, el que tiene todo el control de la red, todo el sistema de comunicaciones se hunde.

Por ello, en ARPA (Advanced Research Projects Agency), la agencia de proyectos adelantados de investigación norteamericana, se propuso diseñar un sistema para interconectar ordenadores en red de manera que ninguno de esos ordenadores o nodos fuera decisivo ni imprescindible para el funcionamiento de la red. De ahí nació la primera red de investigación concebida con esta filosofía, Arpanet (la red, net, de ARPA), de la cual deriva la actual Internet.


Parece que la idea fue de J. C. L. Licklider, director de la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA) desde octubre de 1962, pero fue Robert Taylor quien la puso en práctica después de contratar a Larry Roberts, del MIT. La primera red Arpanet se estableció entre los ordenadores de la Universidad de California, Los Ángeles (UCLA), y del Stanford Research Institute, el 29 de octubre de 1969.


La nueva red incorporaba una tecnología innovadora de conmutación de paquetes, desarrollada a instancias de la DARPA, en contraposición a la conmutación de circuitos habitual en la telefonía. Después, hacia 1983, la conjunción de diversas redes informáticas con la misma tecnología (Arpanet de ARPA, Milnet de los militares y CSNET de la investigación informática) acabó creando la llamada red de redes o Internet.


La gestión de la nueva Internet por parte de la National Science Foundation (Fundación Nacional de la Ciencia de Estados Unidos) hizo que algunos emprendedores pidieran convertirse en proveedores de servicios en Internet (ISP: Internet Service Providers) y el uso de la red Internet, inicialmente un proyecto militar reservado, llegó al gran público.


Hoy Internet es, como sabemos, una red sumamente abierta, sin control posible, ya que ningún nodo la domina y controla. Hay que decir que, como proyecto militar que fue en sus orígenes, la red podía ser abierta y sin control, ya que sus usuarios, los militares, sí estaban controlados y sometidos a la disciplina militar. Eso impedía el descontrol de la incipiente Internet: la red era abierta y libre, pero no sus usuarios. Por eso Internet es hoy imprevisible: se trata de una red no regulada en manos de personas escasamente reguladas por leyes siempre retrasadas con respecto a la tecnología.


Por este motivo, siempre hay nuevas posibilidades en Internet, incluso la de la organización espontánea de la creatividad de todos. Se podría decir que Internet es, en cierta medida, un gran proyecto militar fracasado.


Reportaje de Miquel Barceló, profesor de la Universidad Politécnica de Cataluña

Ubuntu 9.10 Final, disponible

Fiel a la cita otoñal, Canonical ha anunciado la disponibilidad de la versión final de Ubuntu 9.04 “Karmic Koala”, distribución GNU/Linux que se ha convertido en la más popular del mercado y que llega con amplias mejoras para convertirse en una alternativa libre y gratuita a los todopoderosos Windows y Mac OS X.

Ya os hemos ido informando puntualmente del desarrollo de Ubuntu 9.04, desde la versión alpha, beta, o la Release Candidate que ya mostraba todos los avances que llegarían en la versión final liberada.

Entre ellas destacan el Ubuntu Software Center (USC) que permite a cualquier usuario la instalación sencilla de software y que los que llevan/llevamos ya unos añitos en el mundo Linux podemos comprobar los grandes avances en este terreno. Las acusaciones –sin fundamento- de dificultad de este apartado para el usuario común, sencillamente no se sostienen.

En cuanto al apartado de la interfaz mejora en el proceso de instalación y arranque gráfico con XSplash, el tema por defecto, los fondos y especialmente el aspecto de los iconos. Un tema “Human” más elegante que se puede cambiar fácilmente con unos pocos clics de ratón con una multitud de alternativas a instalar. Las grandes mejoras en este apartado llegarán en abril con Ubuntu 10.04.

El apartado del rendimiento también mejora especialmente el proceso de arranque con Upstart y la adopción del sistema de archivos ext4 y que para la siguiente versión se trabaja en el objetivo ambicioso de los 10 segundos. Oro apartado destacado es Ubuntu One (con 2 Gbytes de almacenamiento gratuito) que apuesta por los servicios web “en nube” y que en la versión Server con Ubuntu Enterprise Cloud permite que las empresas puedan desarrollar sus propias “nubes privadas” para la ejecución de sus servicios web.

Apartado destacado es la llegada del nuevo gestor de arranque GRUB 2, más potente y visualmente más atractivo o la inclusión del kernel 2.6.31 que mejora entre otros aspectos soporte drivers (por ejemplo para USB 3.0). Como de costumbre, Ubuntu apuesta por el entorno de escritorio GNOME 2.28.1 cada vez más integrado, potente y funcional y la instalación de una gran cantidad de aplicaciones actualizadas como Firefox 3.5.3, OpenOffice.org 3.1, GIMP 2.6.7, Rythmbox y Totem.

En resumen, “el Ubuntu más pulido de todos los tiempos” como indican algunos análisis sobre la distribución, estable como de costumbre, segura y una apuesta por la sencillez y fácil manejo para todo tipo de usuarios.

En versiones de 32 y 64 bits ya está disponible para descarga las ediciones Desktop y Server y los sabores habituales Kubuntu, Xubuntu o Mythbuntu, en descarga directa o en la red BitTorrent.

La caída de las ventas mantiene las pérdidas en Sony

La empresa japonesa Sony ha anunciado hoy unas pérdidas netas de 26.300 millones de yenes (195 millones de euros) entre julio y septiembre, frente a un beneficio de 20.800 millones de yenes (154 millones de euros) en el mismo periodo de 2008. El gigante nipón ha achacado estos resultados, que en cualquier caso son mejores de lo previsto, a la ralentización de la economía y la apreciación del yen, así como a la disminución de sus ventas, que entre julio y septiembre, segundo trimestre del año fiscal japonés, cayeron un 19,8% interanual hasta 1,66 billones de yenes (12.318 millones de euros).

A pesar de este deterioro en el mercado de bienes de consumo duradero, Sony ha revisado sus previsiones de pérdidas para el actual año fiscal. Así, aunque no espera abandonar los números rojos a final del ejercicio, ha reducido las pérdidas previstas desde los 120.000 millones de yenes (890 millones de euros) calculados en julio hasta los actuales 95.000 millones de yenes (704 millones de euros).


El segundo fabricante mundial de productos electrónicos registró el año pasado sus primeras pérdidas netas y operativas en catorce años, que achacó a la crisis, un yen fuerte, una menor demanda y al aumento de la competencia con sus rivales. Ante esta situación, la empresa se encuentra inmersa en un plan de reestructuración para capear la crisis, que prevé la eliminación de 16.000 empleos y el cierre de ocho de sus fábricas en todo el mundo.


DirectX 11 para Vista SP2, ya disponible

Bright Side of News informa de que Microsoft ha lanzado silenciosamente una actualización que añade soporte DirectX 11 a Windows Vista SP2.

Al descargar esta actualización "Actualización para Windows Vista (KB971512)" estamos descargando una actualización que contiene "Windows Graphics, Imaging y la librería XPS contiene los últimos avances en gráficos para juegos, multimedia, aplicaciones de imágenes e imprimido. Esto incluye actualizaciones para DirectX, DirectCompute y librerías XPS. Después de instalarlo tienes que reiniciar tu PC".

Podéis bajarlo aquí.

Si se busca algún otro sitio de descarga podemos encontrar lo mismo en Guru3D.

Con la tecnología de Blogger.