lunes, 28 de mayo de 2007

¿Quién domina Internet? (II)

ZorphDark [blackhat4all@gmail.com]

La formación del Ciberespacio

Internet fue consolidándose como una infraestructura global, que en los años ´80 comenzó a agrupar poco a poco las redes individuales existentes a lo largo y ancho del planeta. En 1985 ya era una tecnología firmemente establecida.

Un año después, el protocolo TCP/IP estaba disponible para las computadoras personales popularizadas años atrás por IBM y Macintosh. Gracias a esto y al desarrollo de las LAN (Local Area Network o Red de Área Local) y las estaciones de trabajo, la embrionaria Internet fue adquiriendo extraordinarias magnitudes. Dejó de ser un simple sistema de transferencia de documentos técnicos e información científica para convertirse en una plataforma de intercambio de información de todo tipo que fusionó los medios de comunicación existentes para dar lugar a un fenómeno sin precedentes históricos.

En 1986, la NSF (National Science Foundation o Fundación Nacional de Ciencias) comenzó a implementar su backbone (segmento de una red que aguanta el peso de todo su tráfico y conecta a su vez todas las subredes que la componen). Inspeccionar el uso que se le daba a su red era una labor colosal. Era necesario buscar un método eficaz y viable. De ahí surgió una de las primeras normas de ética de uso de las redes, que bajo el nombre de AUP (Aceptable Use Policy o Política Aceptable de Uso), prohibía el uso del backbone para fines que no contribuyeran a la investigación o educación en general. Aunque era casi imposible controlar el cumplimiento de esta norma, servía para exhortar a las personas a un uso provechoso de los servicios que brindaba la NSFnet.

La introducción de Internet en el mercado sentó sus bases cuando la NSF comenzó a darle publicidad a su red para buscar clientes comerciales. Gracias a esta estrategia, podían disminuir los costos de suscripción a sus servicios y por lo tanto, la red sería más accesible al público. El control del flujo de información comenzaba a ser incontrolable. Un ejemplo de ello fue la introducción de un virus en ARPAnet el 2 de noviembre de 1988 por Robert Tappan Morris, hijo de uno de un prestigioso experto en seguridad informática de la NSA (Nacional Security Agency o Agencia de Seguridad Nacional). La destructiva creación de este recién graduado en Ciencias de la Computación logró infectar a más de 6 000 servidores conectados a la red, dejándolos fuera de servicio por varios días. Para enfrentar este grave problema fue necesaria la creación del CERT (Computer Emergency Response Team o Grupo de Respuesta a Emergencias de Computadora).

En 1989, con la creación de la World Wide Web por Tim Berners-Lee -que hizo mucho más accesible los recursos disponibles en la red a los usuarios con pocos conocimientos de computación- y la incorporación de países de Europa, Asia y América Latina al ciberespacio, comenzó la edad de oro de la informática orientada al desarrollo de las aplicaciones y servicios de Internet.

A partir de los resultados de las estadísticas que mostraban las facilidades que brindaban las redes a la vida personal, laboral y profesional, se decidió eliminar, en 1990, la obligación de contar con el apoyo gubernamental para poder conectarse a Internet. Esto, junto al desarrollo de las actividades comerciales por Internet, permitió el incremento de 160 000 servidores enlazados en enero de ese año a la extraordinaria cifra de 5 millones en un quinquenio. Por esos días de la nueva década, ARPAnet, silenciosamente, dejaba de existir.

Con el objetivo de establecer una coherencia en el continuo desarrollo de la red de redes, se fundó en 1992 una sociedad de voluntarios llamada ISOC (Internet Society o Sociedad Internet), que mediante rigurosos análisis se dedica a definir estándares entre los elementos técnicos que rigen la estructura del ciberespacio.

En abril de 1995, luego de 8 años y medio de control, la NSF eliminó la financiación del backbone de NSFnet, terminando así con su política de privatización de la red. Esto conllevó a un proceso aún mayor de descentralización, porque con el tiempo, el backbone comenzó a dispersarse entre distintas redes regionales.

El 24 de octubre de ese mismo año, el FNC (Federal Networking Council o Concejo Federal de Redes), aceptó unánimemente una resolución que definía el término “Internet”. Lo que un día comenzó como el fruto del trabajo de un pequeño grupo de investigadores, se acordó que hace referencia a un sistema global de información que está relacionado lógicamente por un único espacio de direcciones global basado en el protocolo de Internet (IP) o en sus extensiones, es capaz de soportar comunicaciones usando el conjunto de protocolos TCP/IP o sus extensiones u otros protocolos compatibles con IP, y emplea, provee, o hace accesible, privada o públicamente, servicios de alto nivel en capas de comunicaciones y otras infraestructuras relacionadas.

La censura en Internet

Con el supuesto objetivo de hacer de Internet un lugar formal y seguro, el 1ro de febrero de 1996 el Congreso de los Estados Unidos aprobó el “Acta para la Decencia”, que anexada a una nueva ley de telecomunicaciones, censuraba todo tipo de "mensajes inapropiados" en los medios de difusión masiva. El problema surgía cuando se trataba de controlar el flujo de los mensajes por la red y se intentaba definir qué era inmoral. El modo de pensar de dos individuos que residen en regiones con culturas e ideologías diferentes no es el mismo. A la hora de tratar con información procedente de otros países surgían problemas legales. A pesar de la insistencia de Vinton Cerf en el tema, aclarando que “No es posible ni recomendable censurar a Internet”, las autoridades no prestaron mucha atención. Consecuentemente, un grupo importante de especialistas, usuarios y empresas se declararon explícitamente en contra del acta. Así quedaba demostrado que mediante ese método era prácticamente imposible controlar, de modo general, lo que las personas hacían a través de los servidores de Internet.

¿Entonces Internet es un caos?

En realidad no. Aunque no tenga un eje de control y crezca a un ritmo desmesurado que actualmente imposibilita la realización inmediata de un censo de la cantidad de servidores o sitios web publicados, Internet no es una locura. Su funcionamiento descansa en la actividad de las centenares de miles de redes que se encuentran interrelacionadas. La cantidad y la calidad de los recursos e información disponibles en Internet dependen del esfuerzo, la ética y la profesionalidad de los administradores de cada nodo.

La estructura y la operatividad de Internet pueden ser descritas mediante el sencillo ejemplo de una gran ciudad en constante crecimiento, donde cada uno de sus habitantes es responsable de sus actos, y las medidas de seguridad y control no son suficientes como para abarcarlo todo.

A pesar de su carácter descentralizado, desde hace algunos años se han puesto en práctica numerosas tecnologías que, aunque no permitan controlar efectivamente el tráfico de datos, han constituido poderosas herramientas de búsqueda y análisis de información en Internet. Un popular y adecuado ejemplo son las innovaciones de Google Inc., que se ha convertido en una de las más poderosas compañías relacionadas con el mundo de la informática, gracias a su potente buscador de recursos en la red.

Cabe destacar también los esfuerzos que están realizando algunos gobiernos -como el de los Estados Unidos- en el desarrollo de poderosas herramientas de control y vigilia del transporte de datos a través de las redes. Mediante leyes que obligan a los proveedores de acceso a Internet a entregar los registros de actividad de cada usuario, respecto a los sitios web visitados, correos enviados, etc, intentan descubrir rastros de "actividades terroristas". Claro, que aunque esto constituye una violación a los derechos de intimidad del ciudadano común e inocente, no deja de ser una utopía, ya que es prácticamente imposible registrar y revisar toda la información que fluye por todas las redes del planeta.


Densidad de población & internautas

Sobre este último hecho, es preciso decir que en la actualidad se están llevando a cabo serias investigaciones por parte de científicos y expertos para darle una forma concreta y realista al concepto Global Brain (Cerebro Global), que pretende mediante técnicas de inteligencia artificial, ordenar y dotar de razonamiento e interactividad a la red de redes con el usuario y el entorno que lo rodea.

A modo de conclusión…

Es preciso decir que en muy pocos años, la transmisión de información a grandes distancias ha pasado a ser parte inseparable de las sociedades desarrolladas. Aunque 85 de cada 100 personas en el mundo no tengan acceso a este fruto del desarrollo de la humanidad, es indiscutible que Internet forma parte de nuestro futuro. Aunque ni siquiera podamos registrar la descomunal cifra de computadoras interconectadas y recursos disponibles en la red de redes, es necesario entender los inicios de esta revolución global y de qué modo podemos dominarla. Necesariamente, entre todos tendremos que aprender a dirigir y encaminar el destino de las nuevas tecnologías de la información e impedir ser llevados hacia un futuro incierto.

Para saber más...



Artículos relacionados


No hay comentarios: