lunes, 21 de mayo de 2007

Notas para un mejor uso del Word

ZorphDark

Quizás la aplicación más utilizada del mundo, junto al Internet Explorer y el Reproductor de Windows Media, sea Microsoft Word. A diferencia de los dos primeros, que constantemente son criticados -con razón- y tienen alternativas muy potentes, el más exitoso de Microsoft Office mantiene su liderazgo en el mercado de los procesadores de texto debido al número de prestaciones. Hace pocos meses, esta brecha ha aumentado por el lanzamiento de Microsoft Office 2007, que ha aventajado a todos los competidores tanto en robustez como en usabilidad. Es una ley que, para las nuevas versiones de los productos de Microsoft, aumenten los requerimientos de hardware; pero aún así vale la pena aprovechar lo que nos brinda este nuevo gigante, desde el menú de formato emergente hasta los esquemas XML.

Con lo primero que se enfrentan los usuarios del Office 2007 es con los problemas de compatibilidad. Si antes podíamos ver documentos en todas las versiones posteriores a la de 1997, ahora nos han puesto un poco más dificil las cosas, a costa del notable incremento de la calidad de los documentos generados con formato DocX. Nos molestamos cuando este nuevo formato de Word no es capaz de visualizarse en versiones anteriores, sin embargo, podemos precindir de las nuevas funciones y activar el modo de compatibilidad, guardando el documento actual como Word 97/2003. También puede ser guardado con formato Microsoft Office Open XML o, instalando un complemento adicional, exportado a PDF o XPS.

En caso de que estemos editando múltiples documentos, el antiguo menú Archivo nos brinda la posibilidad de mostrarnos opciones comunes a todos si presionamos la tecla Shift mientras hacemos clic en él. Aparecerán automáticamente los comandos Guardar todo y Cerrar todo. En Word 2007 debemos incluir este comando en la barra de herramientas de acceso rápido. Para tener dos documentos desplegados en pantalla al mismo tiempo podemos, dentro del menú Ventana, ejecutar el comando Comparar en paralelo y luego, en la barra de herramientas emergente, seleccionar la opción desplazamiento sincrónico, según se necesite. En la última versión esta opción se encuentra ubicada en el grupo Ventana de la ficha Vista. Si queremos, sin embargo, trabajar con diferentes páginas de un mismo documento, recurrimos, en vez de a la barra de desplazamiento vertical, al separador que se encuentra encima de ella, arrastrándolo hacia abajo. Para desplazarse al principio o al final de ese documento presionamos Ctrl + Inicio y Ctrl + Final, respectivamente.

Es posible que usted desee guardar un registro de anotaciones. Para ello puede insertar la fecha y la hora del sistema en la posición que usted desee haciendo clic en el menú Insertar o en el grupo Texto de la ficha Insertar. Se puede, incluso, permitir que cada vez que se abra el documento se actualice dicho dato con sólo activar la casilla Actualizar automáticamente. De todos modos, es recomendable realizar apuntes en OneNote, disponible desde el paquete de Office lanzado en el año 2003.

Aquellos usuarios que deseen posicionar minuciosamente los elementos gráficos o textuales, pueden hacer clic sobre la regla con ambos botones del ratón a la vez para ubicar las tabulaciones con precisión. Si lo que se desea es seleccionar elementos no continuos, puede recurrirse a la tecla Ctrl, o a la tecla Alt para realizar una selección vertical.

En fin, para lograr que nuestra experiencia en una aplicación ofimática con tantos recursos no sea lenta y agobiante, frecuentemente se deben conocer nuevas técnicas para agilizar el trabajo. Algo que de seguro aportaría más rapidez a los tareas rutinarias son las macro, que automatizan acciones predefinidas mediante el lenguaje Visual Basic para Aplicaciones, aunque eso ya es parte de un flujo de bytes que se ubicará en otro número de la revista.

Para saber más...

Continuar leyendo

Google++

Krlo

En este artículo encontrarás algunas facilidades que brinda el famoso buscador y que son poco conocidas. Después de leerlo podrás sacarle mayor provecho al mismo.

1. Igual o similar

A veces encontramos una web que nos gusta. Sospechamos que hay otras por el estilo. Para dar con ellas, hay que usar la palabra related. Por ejemplo, poniendo related:www.cnn.com, se obtendrá una lista de sitios de cadenas noticiosas.

2. Calculadora

La caja de búsqueda de Google también sabe de números. Todo lo que hay que hacer es escribir la fórmula y apretar Enter. Por ejemplo: 18/32=. Se obtendrá no una lista de sitios, sino el resultado de la operación.

3. Sólo en el título

Con el operador intitle podemos decirle a Google que busque sólo en el título de una página y no en todo el texto del sitio. Esto ayuda cuando sabemos que la página que estamos buscando tiene ciertas palabras en su etiqueta. Por ejemplo, intitle:beatles.

4. Buscar dentro de un sitio

A veces tenemos la dirección del sitio y lo que en realidad necesitamos es buscar algo dentro de esa web. Google ayuda con el operador site. Por ejemplo, site:www.cnn.com "Buenos Aires" listará todas las páginas de la CNN donde se habla de esta ciudad.

5. Vínculos

Si nos gusta un sitio y queremos ver quiénes mencionan su dirección en la Web, hay que usar el operador link. Por ejemplo, link:www.intel.com nos dirá en cuántos sitios aparece esa dirección y listará las páginas.

6. Biblioteca virtual

Google está digitalizando libros con la idea de que estén disponibles desde el sitio Book Search. Por eso, al pie de cualquier búsqueda que hagamos en el sitio de Google en inglés se ve ahora un vínculo etiquetado "Try your search again on Google Book Search". Si hacemos clic en ese vínculo, encontrará páginas de libros en los que aparece la frase que estamos buscando. También, libros en español.

7. Más es mejor

Google no toma en cuenta ciertas palabras en sus búsquedas porque son demasiado comunes. Por ejemplo, los coordinantes y las preposiciones son descartadas. Sin embargo, puede que necesitemos que las considere. En ese caso, hay que poner un signo más (+) antes de dicha palabra. Por ejemplo, El Señor de los Anillos + I remitirá al primer volumen de la saga.

8. Sintonía fina

Haciendo clic en Búsqueda Avanzada (Advanced Search), el sitio de Google ofrece una serie de controles adicionales para refinar las pesquisas: por idioma, por formato de archivo, por fecha, sin contenidos para adultos (SafeSearch), todas las palabras, frase exacta, con alguna de las palabras y sin ella, y así. En la página principal puede lograrse lo mismo que con las opciones avanzadas usando simplemente comillas. Por ejemplo, "historia de la electricidad", listará sólo las páginas que contengan esa oración.

9. A todo color

Google tiene un buscador de imágenes. El ejemplo típico de su uso es cuando estamos buscando la bandera de un país o queremos ver el modelo de auto del que nos han hablado. Un truco interesante de esa sección es que arriba a la izquierda se puede elegir el tamaño de los gráficos que mostrará el buscador.

10. Traducción simultánea

Las herramientas de lenguaje de Google sirven para salir del paso cuando necesitamos al menos hacernos una idea de lo que dice un sitio. ¿Un sitio? Así es. Google puede traducir webs enteras en cuestión de segundos. Para eso, sólo hay que hacer clic en el link Herramientas del Idioma (Language Tools) y colocar la dirección en la casilla de abajo.

11. Protección infantil

Si hay chicos en la casa, una buena forma de permitirles buscar sin exponerlos a material inconveniente es por medio de las Preferencias de Google > Filtro SafeSearch. No es perfecto, pero es mejor que nada.

Para saber más...

Continuar leyendo

¿Cómo enviar correos anónimos?

Eddy

Primero empezaremos hablando de los servidores SMTP. Estos servidores ofrecen a través de su puerto 25 el servicio de envío de correo electrónico. Pero el acceso a este puerto no está controlado por contraseñas ni autentificación de ningún tipo.

Si conocemos un servidor SMTP o tenemos correo a través de uno podemos usarlo para nuestros propósitos. Para conectarnos a dicho puerto abrimos Telnet: Inicio->Ejecutar, tecleamos "telnet" y pulsamos Enter.

Luego que aparezca en pantalla la ventana de consola, tecleamos:
o <Nombre del servidor SMTP> 25
Ej: o vanguardia.co.cu 25. Esto abre (open, por eso la "o") el servidor por el puerto 25.

El server responde más o menos con:
220 vanguardia.co.cu SMTP Ready

Para identificarnos tecleamos:
HELO <No.IP>
El número de IP usado aquí puede ser falso como 0.0.0.0

El servidor responde:
250 mail.etecsa.net

Para enviar el correo indicamos el FROM.
MAIL FROM:pepe@vanguardia.co.cu
El dominio que ponemos aquí tiene que ser válido para ese servidor. En este caso es vanguardia.co.cu, pero el nombre de la cuenta puede ser lo que tú quieras.

El servidor responde:
250 sender is pepe@vanguardia.co.cu

Le decimos para quién es el correo:
RCPT TO:jaguero@infomed.sld.cu
Para que nuestro amigo Alien reciba el mail, o podemos especificar cualquier dirección sin distinción.

El servidor responde:
250 recipient jaguero@infomed.sld.cu

Para poner el texto del correo ponemos:
DATA
y pulsamos Enter.

El servidor responde:
354 Start mail input; end with <CR><LF>.<CR><LF>
Escribimos todo lo que se quiera y para finalizar damos dos Enter, ponemos un "." sólo y damos Enter. Así nuestro mensaje es salvado y enviado...

Finalmente para desconectarnos ponemos:
quit

Esto es todo por ahora. Si tiene alguna duda de cómo usar esto de mejor forma puede escribirme un comentario.

Para saber más...

Continuar leyendo

QoS: Quality of Service

Alien

Quizás por este nombre muchos no lo conozcan, pero si les digo QoS (las siglas en inglés de Quality of Service), algunos ya se imaginarán de qué les hablaré.

Sucede que desde el mismo instante que configuramos la red, se nos instala junto con ésta y, de forma silenciosa, este “pesado” componente, que no es más que el que se encarga de verificar el control del tráfico de la red, sólo que para esto necesita constantemente estar enviando y recibiendo paquetes, cosa que nos ralentiza la conexión.

Quizás los que se hayan guiado por las revistas anteriores, y tengan configurada su conexión para que se desconecte al estar inactiva por un tiempo determinado, se habrán dado cuenta de que no siempre al estar por ese tiempo sin actividad en la red la conexión se pierde, y esto pudiera ser entre otras cosas debido al dichoso QoS.

Resulta ser que este componente nos “roba” el 20% del ancho de banda para estas gestiones, y no digo que no sea necesario, pero aquí en Cuba, donde las conexiones aún son en su mayoría por módem, y generalmente se envía un paquete a cada máquina, no es necesario. Necesario es para nosotros enviar y recibir los correos lo mas rápido posible, necesario es para nosotros entrar a gran velocidad a las páginas, necesario es poder bajar un archivo de música de un ftp sin tener que estar contando los minutos. Y no es que deshabilitándolo podamos bajarnos de ftp.sld.cu (el ftp de Infomed), un CD completo de Carlos Varela, pero un 20%, es un 20%.

Para los que quieran aprovechar este 20%, sólo tienen que escribir en ejecutar gpedit.msc, y una vez allí, dirigirse hacia esta dirección: Plantillas administrativas->Red->Programador de paquetes QoS.

Una vez allí, hacer doble clic en “Limitar ancho de banda reservado”.

Se nos aparecerá una ventana que en todo su conjunto hay tres opciones, por defecto estará marcada “No configurada”, lo que tenemos que hacer es habilitarla, y establecer el porciento de límite de ancho de banda a 0, luego aplicamos, aceptamos, y todo está hecho.

Vale aclarar que no configurar esta opción, o deshabilitarla, seguirá teniendo el mismo efecto que hasta el momento, es decir, no restaría el 20% de ancho de banda.

Otra vía de hacer esto es dirigiéndonos a Mostrar todas las conexiones, que está en el menú Inicio->Conectar a, y marcar la conexión que hayamos configurado, dentro de las propiedades de la misma, dirigirnos a la pestaña “Funciones de red”, allí nos aparecerá nuevamente el dichoso QoS, sólo que nos da solamente la opción de desinstalarlo, cosa que se puede deshacer desde ese mismo lugar.

Para saber más...

Continuar leyendo

El CD por fuera

Krlo

Se habla mucho de la estructura física de los Discos Compactos (o CD por sus siglas en inglés), pero poco se menciona la manera lógica en que se distribuye la información. En este trabajo pretendo introducir el tema, apoyándome en el sistema de ficheros más usado y extendido para trabajar con CD, el ISO 9660.

La información en un medio de almacenamiento es contralada y organizada por el Sistema de Ficheros (FS por sus siglas en inglés). Los más conocidos por todos son: FAT en todas sus variantes, NTFS, Ext 2, Ext 3 y HFS para Mac. Los CD se almacenan con la particularidad de que no se efectuarán futuras modificaciones en los datos, se quema el disco y no se guardan archivos nuevos o se modifican los existentes. En todo caso, el disco tendrá que ser quemado nuevamente pero ya sería otro sistema el que contiene. En otras palabras: los CD son READ-ONLY.

En 1986, las autoridades de normalización americanas ISO estandarizaron la propuesta de un sistema anterior, y publicaron la norma ISO 9660 (a partir de ahora solo ISO), que describe un FS para los CD. Este sistema de ficheros se diseñó para que fuera común a los ordenadores basados en plataformas MS-DOS, Microsoft Windows, Mac OS y UNIX.

Estructura

Un sistema de ficheros ISO divide el CD en Bloques Lógicos. Aunque el tamaño de los mismos puede variar, podemos asumir sin preocupaciones que un bloque lógico siempre constará de 2048 bytes (2Kb).

En los primeros 15 bloques puede aparecer información que nada tiene que ver con el estándar ISO, es usada por el Sistema Operativo(OS por sus siglas en inglés también, qué remedio) para sus propios fines. No olvidar que ISO especifica una estructura del disco para lograr compatibilidad entre diferentes SO, no es un programa o una implementación, es un patrón o modelo que debe cumplir la información del CD.

En el bloque 16 comienza una sucesión de Descriptores de Volumen que ayudan a describir la información y forma de trabajar con el disco. Cada Descriptor utiliza 2 Kb(un bloque de hecho), y se ubican uno detrás de otro. A continuación referimos la estructura general de un Descriptor, sus campos comunes.

El primer byte determina que tipo de Descriptor es, entre los posibles:
0: Boot Record.
1: Primary Volume Descriptor (PVD). Debe aparecer al menos una vez en la secuencia. El mismo se describirá detalladamente más adelante, por ser el más importante de todos.
2: Supplementary Volume Descriptor.
3: Volume Partition Descriptor.
4-254: son valores reservados.
255: Volume Descriptor Set Terminator. El Volume Descriptor Set Terminator (255) determina el fin de la secuencia de Descriptores.

EL PVD se encarga entre otras cosas de brindar el nombre del disco (31 caracteres a lo sumo, traten de quemar un disco con un nombre mayor), la cantidad de bloques que contiene el disco (recuerden que son de 2KB), para qué sirven los primeros 15 bloques del disco (si sirven para algo), ubicación del directorio raíz del disco (sin duda lo más importante), así como la ubicación y tamaño de la tabla de caminos. La tabla de caminos o Path Table se verá más adelante.

Toda carpeta y archivo del CD tiene una estructura llamada Directory Record, la misma es variable, no tiene tamaño fijo:

El campo Location of Extent representa la ubicación de la información del Record (no es más que el contenido del fichero o directorio en cuestión). Si el bit 1 es 0 entonces extend está la información del archivo, desde esa posición hasta los n bloques que especifíca el campo Data Length. En caso contrario es una secuencia de Directory Records hasta que especifique el Data Lentgth también.

La tabla de Caminos

La tabla de caminos brinda al Sistema Operativo (SO) acceso rápido a cada directorio en el disco, evitándole tener que recorrer cada directorio para llegar al archivo buscado. Por cada directorio distinto al raíz, la TC contiene un registro que lo describe.

Es mucho más rápido buscar en memoria la dirección en disco de /juegos/starcraft/victorias/, que ir a root, buscar su extent, luego localizar juegos, su extent, localizar starcraft,…

La mayoría de los SO hacen una copia de toda la Tabla de Caminos en memoria, para evitar continuadas lecturas a disco. Por esa razón en el PVD está la dirección de la misma y su tamaño para que sea reservado por el SO.

Restricciones

En cuanto al Nombre:
• Nivel 1: Los nombres de archivos cumplen el formato 8.3 de MS-DOS. La profundidad máxima de los directorios es 8.
• Nivel 2: Los nombres de archivos pueden llegar hasta 31 caracteres.
• Nivel 3: Archivos pueden ser fragmentados (para permitir la escritura por paquetes o grabación incremental.

Otras restricciones:
• Todos los niveles restringen a los nombres ha ser representados por caracteres en mayúsculas, números, underscores (_) y puntos. Linux convierte mayúsculas a minúsculas mientras monta sistemas de archivos ISO.
• Los nombres de archivos no pueden empezar o terminar con un punto.
• Los nombres de archivos no pueden tener más de un punto.
• Los directorios no pueden usar ningún punto.

En cuanto al límite de profundidad de los directorios:
Las restricciones en la longitud de los nombres y la profundidad de los directorios (hasta 8 niveles incluyendo el directorio raíz), han sido las más serias limitaciones de este sistema de archivos.

En cuanto al límite de memoria:
Normalmente, un archivo en un disco formateado con ISO no puede ser superior en tamaño a 231-1. La causa es que su tamaño se guarda en un campo de 32 bit, para el cual 231 -1 es el valor máximo.

En cuanto al limite de numero de directorios:
Existe otra, menos conocida limitante: recordemos la estructura con que ISO cuenta llamada “tabla de direcciones” o “path table”. Por cada archivo la tabla brinda un identificador de su directorio padre. El problema llega cuando nos enteramos que el identificador es de 16-bit, lo que restringe a 65 535 el numero de carpetas. Algunos SO como Windows usan esta estrategia, y otros como Linux no. Si un disco ISO consiste en mas de 65 535 carpetas, será leído en Linux pero en un ambiente Windows todos los ficheros de los directorios adicionales serán visibles, pero vacios (longitud cero).

Conclusiones

Existen extensiones a ISO como Joliet(Windows) y Rock Ridge(UNIX) para quitarnos estas restricciones de arriba, y hacer más potables los CD. Espero que ahora cuando quieran quemar un disco en Nero sepan de que va lo de ISO+Joliet, o los niveles en el tamaño de nombres. Un disco con Joliet es posible trabajarlo desde Linux, pero uno de Rock Ridge no estoy seguro de que sea compatible con Windows.

A modo de curiosidad, el formato UDF es un sistema de archivos con estándar ISO 9660 que utiliza las grabadoras de CD/DVD como un dispositivo de almacenamiento lógico (como los discos duros), este formato permite leer, escribir o modificar los archivos contenidos en discos CD/DVD re escribibles (RW) del mismo modo que se hace en el disco duro, memorias USB o disquete; igual permite la característica de arrastrar y soltar; estas propiedades solo se pueden usar en las grabadoras de CD/DVD no en las lectoras. El único inconveniente es que no aprovecha todo el disco, uno de 700mb te los deja en 550.

Para saber más...

Continuar leyendo

¿Quién domina Internet? (I)

ZorphDark

Los grandes inventores y soñadores que nos antecedieron en la historia de la humanidad jamás pudieron imaginar que en la segunda mitad del vigésimo siglo se desatara un fenómeno sin precedentes. Las ocho letras que pasaron a conformar su nombre integraron los resultados del trabajo de miles de científicos e investigadores que contribuyeron a su concepción y desarrollo. Internet ha traído consigo grandes progresos, novedosos medios de comunicación, un modo de pensar y de hacer las cosas con mayor eficiencia y, sobre todo, ha formado una nueva cultura que junto al ciberespacio se encuentra en constante evolución.

Pero hay un detalle de esta poderosa estructura que nos sorprende a todos: Internet no existe como una entidad independiente, no pertenece a ningún gobierno, a ninguna organización, por lo que carece de un centro de control. Es algo asombroso, pero su arquitectura impide que sea de otra forma. Su funcionamiento se basa en la interconexión de miles de redes que se encuentran distribuidas a lo largo de nuestro planeta.

Entonces, ¿quién domina Internet? Para poder responder esta incógnita es necesario hacer un poco de historia.

Sus inicios…

Aunque surgió como resultado de un programa estratégico llevado a cabo por la Agencia de Proyectos de Investigación Avanzados (ARPA) del Departamento de Defensa de los Estados Unidos, en la actualidad Internet no se asemeja mucho a la concepción inicial de sus creadores.

En medio de la guerra fría, los norteamericanos, en su paranoico temor de convertirse en el escenario de un conflicto bélico, iniciaron ese proyecto de consecuencias impredecibles en aquellos años. Bajo la dirección de J.C.R. Licklider, el objetivo preliminar de la futura red sería constituir un sistema descentralizado de transmisión de datos, donde las estaciones tuviesen autonomía propia y pudieran conectarse entre sí por diferentes vías. De este modo, en caso de guerra, la destrucción de varios puntos de conexión no afectaría a los demás y se mantendría en funcionamiento la red.

Pero desde el 2 de septiembre de 1969, día en que se instaló el primer conmutador de paquetes en la Universidad de California y nació ARPAnet, esta red se utilizó fundamentalmente con fines investigativos y no militares. En aquellos tiempos sólo gozaban del privilegio de conexión las universidades donde trabajaban los científicos e ingenieros estrechamente vinculados a este proyecto. La transmisión de información digital sobre líneas dedicadas de alta velocidad entre nodos ubicados a grandes distancias era una novedad muy codiciada. Para tener una idea de esto, en diciembre de 1969, tres meses después de su surgimiento, sólo 4 supercomputadoras de un costo millonario constituían ARPAnet.

El tráfico de datos en aquel entonces estaba bajo el estricto control del personal que trabajaba en su desarrollo. El uso que se le daba a esta red estaba claramente definido y supervisado, debido a que las normas y protocolos que regían el transporte de datos eran bastante exigentes. Los nodos eran administrados por personas experimentadas y el acceso a las computadoras con conexión era muy limitado. En 1971 existían ya 14 puntos a todo lo largo de Estados Unidos y uno en las islas Hawai.

¿Seguridad en las redes?

A medida que se expandía este novedoso fenómeno y más personas tenían acceso a las redes de área amplia, comenzaban a surgir varios problemas. Uno de ellos y el más importante era el de concebir medidas de seguridad efectivas, que impidieran fundamentalmente el acceso a la información restringida. Luego de la creación e implementación del NCP (Network Control Protocol o Protocolo de Control de Red) en los nodos de ARPAnet, los usuarios podían desarrollar aplicaciones de red. Esto significaba un gran avance, pero también podía ser empleado con fines contraproducentes, lo que agravaba la situación anterior.

Al integrarse el correo electrónico -desarrollado por Ray Tomlinson en 1972- como un servicio de red, el procesamiento de datos dejó de ser lo único que se realizaba en las redes de larga distancia. Ahora los investigadores estaban usando ARPAnet para intercambiar información y colaborar en sus proyectos. Los responsables de controlar el tráfico de datos por la red muchas veces se enfadaban cuando ésta se utilizaba para discutir sobre asuntos personales, pero realmente muy poco podían hacer. La dificultad surgía a la hora de cuestionar qué era importante y que dejaba de serlo en el envío de notas y mensajes particulares. El problema se intensificó cuando poco después surgieron los mailing lists (listas de correos) y los newsgroups (grupos de noticias), que permitían a un gran número de usuarios intercambiar información acerca de un tema en específico. En ellos se podía hablar desde libros, música o ciencia-ficción hasta asuntos exclusivos de adultos. A medida que el número de servidores, personas y escritos era más formidable, se hacía más difícil e incluso imposible registrar e inspeccionar todo lo que se transfería por los sistemas de comunicación digital.

Internetting

A principios de la década de 1970, con la proliferación de diversos tipos de red, como las de transmisión de paquetes por satélite o por radio, se hizo indispensable la concepción de un modelo estándar para poder interconectarlas. Hasta ese momento, el único modo de enlazar redes distintas era mediante la conmutación de circuitos, que permitía intercambiar bits sincrónicamente a lo largo de un circuito que unía ambos extremos. Pero la idea de una red de arquitectura abierta, que enlazara un grupo de redes individuales, diseñadas y desarrolladas de acuerdo con los requerimientos específicos de sus usuarios, hizo a Robert Kahn ampliar las fronteras de sus ingenios. Cautivado con el propósito de interconectar ARPAnet con PRNET (Packet Radio Network o Red de Paquetes de Radio) de la Universidad de Hawai y con SATNET (Satellital Network o Red Satelital), le pidió a Vinton Cerf que trabajara con él en el diseño de un nuevo protocolo. Como resultado surgieron el TCP (Transmission Control Protocol o Protocolo de Control de Transmisión), que se dedicaba al control de flujo y la recuperación de paquetes perdidos y el IP (Internet Protocol o Protocolo de Internet), encargado de direccionar y reenviar los paquetes. Ambos formaron el conjunto TCP/IP, que fue presentado oficialmente en una conferencia del INWG (International Network Working Group o Grupo Internacional de Trabajo sobre Redes) en la Universidad de Sussex en septiembre de 1973.

Mediante la adopción del TCP/IP por las redes existentes y por las que iban surgiendo poco a poco, comenzaba a hacerse realidad el revolucionario concepto Internetting (“entre redes”). Cerf y Kahn demostraron sólidamente las posibilidades que brindaba la interconexión de distintos tipos de redes a nivel internacional en el año 1978. Cinco años después, tras la estandarización global del TCP/IP, comenzó a acelerarse el incremento del número de servidores, por lo que hubo que reestructurar el diseño y algoritmo de enrutamiento de los gateways o puertas de acceso a redes que utilizan diferentes protocolos. Consiguientemente, se dificultó la comprensión de los rotulados y direcciones de los nodos de Internet. En ese mismo año, 1983, Paul Mockapetris y otros colegas desarrollaron el DNS (Domain Name System o Sistema de Nombre de Dominios). Este cómodo servicio se instauró al año siguiente, permitiendo memorizar las direcciones de los servidores en forma literal en vez de las complicadas rutas IP y asignar nombres de dominios para identificar la categoría de la red (.com, .org, .edu, .net, .mil, .gov).

Para saber más...

Continuar leyendo