lunes, 14 de enero de 2008

¿Por qué?, Porque es más fácil

Alien [blackhat4all@gmail.com]

Resulta casi inevitable para los que tienen acceso a las redes pasar más de una semana sin buscar un contenido en el megabuscador.

Es verdaderamente increíble la cantidad de contenido disponible en la red para beneficio de todos aquellos que a la misma tienen acceso. Sabemos que no todo es cierto, que no todo es verdad, pero aún así, nuestro afán de conocimiento nos hace sentir seguros al tener en nuestras manos una cantidad inimaginable de información.

Es indudable la contribución de internet en el desarrollo de tareas, en la influencia que tiene en nuestras vidas, en la gran responsabilidad que esta asume por nosotros y casi siempre de la mejor forma posible. No son pocos los que al despertar lo primero que hacen es abrir una página o recibir por correo lo que su horóscopo les tiene reservado para ese día, otros, hacen uso de la web para encontrar, sin salir de casa, el mejor cine y más cercano en el que en ese momento se está exponiendo una cinta determinada. Muchos, principalmente los estudiantes, encuentran en internet la solución a sus problemas, a sus tareas escolares. Y es que valla, hoy en día, hasta Google es capaz de calcular.

Cuidado:

De por si, la intervención de las redes en nuestros quehaceres diarios es casi inevitable, pero cuidado a aquellos que han dejado de pensar, de crear, de utilizar su cerebro pensando que Google y sus miles de empleados lo podrán hacer por el.

Opiniones encontradas pueden surgir desde aquí, unos pensarán que cierto, otros que es falso, pero la verdad aún está por descubrirse.
Se piensa por muchos que con la llegada de Internet el ser humano tiene más tiempo para procesar la información que recibe del medio que lo rodea pero, es realmente así??. Antes de responder me gustaría hacer una sencilla pregunta:

¿Alguien podría decir que significa procesar información?.

Si se acepta como respuesta que procesar información es buscar en Google algún contenido sobre virus, abrir la página web que sobre el tema trate y teclear Ctrl+C & Ctrl+V sobre un documento de Word que como título tiene “Trabajo Práctico de Informática”, entonces verdaderamente estamos muy embarcados.

Puse este ejemplo porque es lo que la mayoría de las personas a las que le pregunté respondieron, pero verdaderamente pocas o casi ninguna supo al final que es un virus realmente, cuantos tipos existen, cuales son las tendencias actuales de trasmisión y demás cosas importante y que quizás hasta pusieron en el trabajo a entregar.

No voy a terminar aquí este artículo, aún quisiera precisar algunas cosas más, pero no me gustaría continuar y que los que hasta aquí han llegado piensen que soy un renuente de la red, de las tecnologías y de la información, todo lo contrario, soy uno de los que quizás más buscan en Google, soy uno más que como ustedes hace uso de esta maravillosa herramienta para obtener la información que necesito, pero una cosa es verla como una ayuda, como una herramienta, como un adelanto, y otra muy por el contrario es llegarnos a malcriar.

En sentido general las personas con ciertos conocimientos de informática, conocimientos que le alcancen como para saber andar en la red sin perderse y a la vez hacer uso bastante eficaz de la computadora, suelen confiar en esta última todo las cosas. Dudo mucho que la mayoría de ustedes no tenga todos los teléfonos y direcciones almacenadas en un archivo dentro de la máquina, dudo mucho que alguien sea capaz de saberse de memoria todos los trucos que ha hecho en la máquina para acelerar su rendimiento. La mayoría de nosotros (y nótese que me incluyo), solemos pensar que es más fácil encender nuestro ordenador para anotar un teléfono que tratar de memorizarlo, pensamos que no importa como escribamos ciertas palabras como “lapiz” porque al final el Word se encargará de colocarle la tilde.

¡Que rayos importa saber, aprender, memorizar, si al final los software se hacen para facilitarnos el trabajo! ¿verdad?

Y es quizás este mismo pensamiento el que nos está llevando a una ignorancia casi total, a un embobecimiento de nuestro cerebro producido principalmente por el poco uso que hacemos del mismo.

Hace un tiempo se publicó un artículo en BlackHat que hablaba sobre la cantidad de personas que contribuyen con wikipedia mirándolo desde el punto de vista de los idiomas, y fue curioso ver que mientras en el idioma ingles se llegaba al millón de artículos publicados, en español estaba aún lejos de los 300,000. Pero el ejemplo lo vemos desde aquí mismo, desde dentro de nuestro país. Generalmente en los foros de discusión se registran cientos y hasta miles de usuarios, pero solo una pequeña, pequeñísima parte de estos son los que preguntan y responden.

Es una gran pena, pero la realidad es la realidad, A NADIE LE IMPORTA CONTRIBUIR. Quizás porque es más difícil recopilar información, quizás porque no se tiene el tiempo, quizás porque…(aquí van otras justificaciones que quizás se me olvidó poner). La mayoría acuden a la red para ver lo que ahí se encuentra, para obtener, son pocos, muy pocos los que se toman un tiempo para donar sus neuronas y tiempo en aras del beneficio ajeno, que al final no es más que el beneficio propio.

No lleva tanto trabajo calcular el precio total de un producto cuya unidad vale 16 pesos y del mismo se requieren 5, pero hasta para esto muchos trataran de buscar una calculadora, una computadora, incluso hasta una hoja de papel para sacar una cuenta que puede responder cualquier alumno de 6to grado.

Resulta a veces risible las búsquedas que hacen las personas en Google, aún no se acaba de entender que una máquina jamás puede acercarse siquiera a la habilidad para razonar de un ser humano, por simple que este sea.

Continuar leyendo

Que Vista!!!

JKS [mainegra@infomed.sld.cu]

¿Qué Vista?

Comentarios acerca del tan polémico Windows Vista, que desde el 2005 está dando de qué hablar.

¿Ya viste el Vista?

Recientemente tuve la oportunidad de divisar el tan pre-criticado Vista cuando por pura experimentación convencí a un amigo mío de instalarlo en una novedosa PC Vista Ready.

¿Qué decir? El instalador del Vista ocupa un DVD, así que, aunque tengas los 15 GB de disco duro libres necesarios para instalarlo, por supuesto contando de que si lo tienes SATA mejor, el procesador de alta gama –con esto quiero decir Dual-Core o Core 2 Duo-, 1 GB o más de RAM si quieres hacer algo con él, y el resto de los requerimientos que esto implica -como tener una tarjeta de video que te soporte el DirectX 10 y el Aero que este trae incorporado, con un buena memoria VRAM y un GPU digno de los que llevan fan con disipador-, ni siquiera sueñes con instalarlo de CD, a menos que lo copies por otra vía, LAN o HDD externo, por ejemplo.

Algo muy interesante con respecto a la instalación en sí, es que dependiendo del número de serie/activación que se le introduzca al sistema, se estará instalando una edición u otra del sistema, que pueden ser, entre otras, el Home Basic, Home Premium, Enterprise y el Ultimate. Es decir, el pobre desafortunado que se gaste 82 USD en comprar el Home Basic, estará adquiriendo exactamente el mismo software - o paquete de programas si así lo prefieren los linuxeros - que el que gaste 260 USD en el Ultimate, sólo que no se instalará lo mismo (los precios actuales del producto pueden variar sin previo aviso al consumidor…).

Los “contras”

Más allá de lo que podría convertirse en una desafío de la supervivencia tipo “Lost” por migrar hacia las últimas plataformas de hardware existentes, para ir dejando atrás a las más antiguas, que a pesar de sus años aún rinden a tumbos cuando se les pide ejecutar el Word 2007 con un procesador a 600 Mhz o iniciar el soberbio Win XP con 64 MB de RAM –dije megas, no gigas- como se que muchos de ustedes aún pueden estar haciendo, no es exactamente el gran dolor de cabeza para aquellos que tienen asegurados cambiar términos de ISA a PCI Express con solamente proponérselos; lo que quiero decir es que siempre la tecnología del software va estar adelantada por sobre la del hardware, incluso si se vienen esperando 5 añitos a que MS se le ocurra dejar de sacar versiones RC de “Longhorn” para sacar una Vista “definitiva”, y la situación económica personal propia ya se habituará a estar más o menos 1 año atrás de cualquier nueva tecnología, digo más bien por el hardware y no por el software.

Así como cada una de las versiones anteriores de Windows ha sido altamente criticada por una cosa u otra – podría mencionarse la famosa pantalla azul de Win 98, el W2k por no tener un firewall incorporado y el XP por se una mezcla barata entre Win 9X/Me y NT - permítanme recordarles, y no por defender a nadie, que por allá por el 2001 cuando salió y se extendió el XP, hubo también buena oposición a este, que cuento más bien como una inercia por parte de los usuarios a no desapartarse de los viejos sistemas que aún le permitían correr aplicaciones MS-DOS en modo real, como el Norton Disk Doctor, más que problemas de incompatibilidad de los nuevos programas y de carencia de los últimos dispositivos de hardware, usuario que hasta el momento estaban embelezados con el Win 98 o con el W2k, como suele muy a menudo suceder.

Se ha debatido entre los expertos bastante, para entrar en materia, acerca de los diálogos que preguntan tediosamente hasta el borde de la desesperación ¿Está seguro que desea realmente...? y que se apodan UAC (User Account Control): no es un secreto que son particularmente metidos y no tienen el botoncito de “apagar” en ninguna parte, pero no deja de ser cierto de que esto conlleva a que sea más difícil la propagación y ejecución de códigos malignos por parte del bien intencionado usuario, que quiere, por ejemplo, contemplar el último “flash con musiquita” que le mandaron por fin de año, mientras este se vale de los privilegios administrativos para instalar un backdoor, o que nuestro desapercibido Power User ejecute inserte una memoria contaminada con un fichero cualquiera del tipo /MSOCache/TroyanoAdentro.exe o /..runauto/BorrameSiPuedes.bat. Habría que notar en este punto de que existen ciertos softwares antivirales que son, de por sí, tan o más entrometidos que los diálogos UAC de los cuales hablábamos, como se puede mencionar al Karspersky Internet Security 7, el NOD32 que lleva un rato haciendo competencia, para no hablar de firewalls.

El otro aspecto que merece una apreciación es que, terminado de instalar Vista en la máquina que se prestó de conejillo de indias, con las transparencias de Aero activadas, al presionar conjuntamente Ctrl + Alt + Del y seleccionar Administrador de Tareas, me percaté de 2 cosas: primero, se han separado en dos pestañas aparte los servicios del sistema de los procesos regulares, lo que permite averiguar si el rundll.exe que se está ejecutando es o no un proceso del sistema, y segundo, que al momento del primer booteo detrás de el Setup y con absolutamente nada instalado, en el sistema en el cual experimenté, estaba utilizando aproximadamente 460 MB entre una memoria física de 1 GB y un archivo de paginación 1,5 GB ¿Qué quiere decir esto? Un archivo de paginación realmente grande para el Win XP en una máquina recién instalada es de 150 MB ¿? para 256 MB de RAM, y el sistema sin Service Pack instalado corre en unos escasos 80 MB, así que saquen la cuenta (hint: con 512 MB de RAM el LED rojo de tu chasis puede que no se apague más).

El manejo de los recursos y de los drivers podría incluirse en un terreno medio entre “pros y contras”, ya que el Vista, acentuando la misma característica del XP, es totalmente alérgico a drivers que no tengan el real sello aprobación del mismo Gates, y si tratas de quebrantar esta regla, es capaz de estornudar con mucha violencia, llevándose consigo hasta el mismo sistema. La parte buena de esto es que, en la mayoría de los casos, ya no tendrás que preocuparte por la instalación de los intolerables drivers de video, audio y red después de instalar Windows; la parte realmente mala es que te costará la instalación saber si debes o no instalarlos.

Los “pros”

Creo que aunque no los dije todos, tengo más contras que pros. A favor, se puede mencionar una reestructuración general del kernel, de la cual se ha divagado pero se han se han remediado aspectos generales que tienen que ver con el menejo de memoria y los controladores de entrada/salida, la inclusión de la tecnología .Net en su tercera versión, el DirectX 10 como versión mejorada del 9c y muchas otras cosas del API cambiadas que en gran parte no son visibles al nivel de usuario –les digo cuando empiece a programar para .Net 3- pero que sí afectan, para una mejoría por supuesto, del “nivel de vida” y de la calidad del software que se está usando.

Se puede resaltar - una brillante idea- que el paging file es capaz de establecerse, para una mejor velocidad de búsqueda, en una memoria flash USB 2.0 compatible con espacio suficiente – recordando que la velocidad de transferencia del protocolo es de 480 Mbits/s que corresponde a 60 MB/s, mucho más rapido que la mayoría de los discos IDE y SATA- con sólo insertar este dispositivo en un puerto y activar la funciones ReadyBoost y ReadyDrive. El sistema es capaz de aprender cual de los archivos abiertos, entre memoria y fichero de paginación, merece más estar alojado en la RAM para su rápida lectura.

También se han hecho cargo de muchos aspectos relacionados con la interfaz gráfica propiamente dicha, que venían repitiéndose de versiones anteriores en el Explorador de Windows, y que, de la forma en que lo han puesto ahora, hace más fácil poder visualizar informaciones importantes y a la vez organizar mejor el espacio –en la otra mano existen muchas ventanas que para mostrarse enteras se necesita tener una gran resolución de pantalla, como sucede con el diálogo de marcación del acceso telefónico, que ha crecido de tamaño sin necesidad-; se ha hecho un cambio de como se muestra el menú inicio, sin contar con que, ¡ al fin !, se decidieron a agregarle al diálogo de transferencia de datos las informaciones de velocidad a que se copia o mueve y el porcentaje completado de la operación a realizar, y conservando siempre las indicaciones del tiempo restante (que se da en minutos-Microsoft), lo que incluye una mejoría en las opciones de los diálogos de sobre-escritura, escritura demorada y demás.

Como otro aspecto positivo figura la creación de salvas de seguridad, o copias fantasmas (shadow copy) de los documentos de manera automática, y con un manejo muy bueno de las versiones del mismo, permitiendo restaurar los mismos a versiones previas, en caso de que nuestra querida pierna se introduzca donde no debe ye echemos a perder un documento muy importante. Para que mencionar de que esta característica no se encuentra en todas las ediciones del sistema.

En Vista además encontramos, como un “feature” de ciencia ficción diría yo, el sistema de reconocimiento del habla, o Speech Recognition, con lo que creo que dejarán sin empleo a los esforzados compañeros de Dragon Naturally Speaking, esto es, si no adquirieron los de MS una licencia del software, como lo han hecho con otros tantos, como podría decirse que desde el Win 95 el “Desfragmentador de Windows”, no es más que una copia “ligera”, o desnuda más bien, de la potente engine del Diskeeper.

Se descontinuó la inclusión del Hyperterminal, único programa que lamento se deje atrás, pues otro como el NetMeeting y el Windows Messenger dudo mucho que fueran usados, por lo menos en el ámbito de mis escasas experiencias, más allá de las primarias y secundarias con los niños jugando a pintar un pizarrón virtual.

Vista hace fé

La contraparte de GNU-Linux ya tiene rodando un sistemita -del cual sólo he visto un video y diversas screenshots de varias distribuciones, en la sobresalta Ubuntu- que sale con el nombre de XGL, Cube, Desktop Cube, entre otras, y que tiene gráficos realmente impresionantes, dejando años-luz atrás a la inventiva de Microsoft por la parte gráfica, aunque puede que hasta para este ya exista un crack de cualquier repositorio que haga lo mismo -Windows Blinds quizá- pero no es nada como tener un entorno operativo hecho a la medida.

Queda mucho por hablar del Vista, y el primer paso es instalarlo, verlo y usarlo al menos una semana, y si no te gusta por el motivo xyz entonces a downgradearse al XP –ah, y si te sobra una Vista Ready (R) que no uses me la puedes mandar sin ninguna pena- pero siempre recordando de que, monopolio al fin Microsoft, y esclavos de este monopolio en definitiva nosotros, estamos encadenados, para bien o mal, a esta bandera pirata para donde quiera que nos lleve.

Continuar leyendo

Buses

Lic. Zeidy López Collazo [ilinur@infomed.sld.cu]

Los buses en una PC son el conjunto de señales de datos, control y direcciones que entrelazan las distintas partes de la computadora para el intercambio de información entre ellas.
Así , por ejemplo, los datos que usted muestra en pantalla han viajado desde la memoria hasta la tarjeta de vídeo por un conjunto de buses. Pueden ser externos, típicamente los slots de expansión que no son más que las ranuras que tienen la PC para conectar las tarjetas o internos en el corazón de la tarjeta madre.

Dentro del diseño de la PC, el desarrollo de nuevas tecnologías de buses revolucionara en gran medida la arquitectura de las mismas.
Hoy en día el gran desarrollo de periféricos en el campo de las imágenes digitales, la telefonía vía PC, los juegos multimedia entre otros, ha obligado a los grandes fabricantes de Hardware a la creación de 2 puertos de alta calidad (USB, IEEE1394) que simplificaran la instalación de los mismos.

Y en cuanto al software.....

Microsoft es sin duda el principal fabricante de sistemas operativos en la actualidad y de su soporte en Windows depende el éxito o el fracaso de estas dos nuevas tecnologías , gracias a su soporte Plug & Play el cual permite detectar el nuevo periférico , instalar el controlador y administrarlo de manera eficiente los recursos del sistema.

Universal Serial Bus

El USB ya es hoy una realidad, el mismo es una interfaz entre la computadora y diferentes periféricos tales como teclados, printers, scanners, módems, etc.

A pesar de que su aparición fue en noviembre de 1995, solo comenzó a tener soporte básico con la versión OSR2 de windows95. Pero lo que mas lanzo al USB al estrellato fue la salida del Win98 el cual porta desde su encarnación la posibilidad de reconocer/instalar/utilizar un dispositivo USB.
Sin lugar a duda una de las principales características de estos dispositivos es su facilidad de uso, pues acoge la filosofía de “ Conectar y Usar ”.

Una ventaja muy importante de este Bus es que permite la conexión al mismo de 127 periféricos diferentes

Su velocidad de transferencia de datos va desde los 1.5 Mbps hasta los 12 Mbps, por supuesto gran ventaja sobre las hoy vigentes interfaces serie paralelo.

El Bus además de proporcionarle datos a los periféricos, también posee una señal de alimentación de 5 volt.
Utiliza un cable de 4 hilos:
• Dos para una señal diferencial (D+,D-).
• Un hilo para la señal de alimentación del Vbus.
• Un hilo para la señal de tierra.

Conectividad

La interconexión de los elementos que forman parte de una estructura USB se caracterizan por la posibilidad de añadir o suprimir dispositivos en caliente.
Ya que los Concentradores son los encargados de darse cuenta de variaciones en las líneas que llegan a sus puertos (conexiones, desconexiones)

Ventajas del USB

• Permite la conexión de gran cantidad de periféricos que hasta hace poco no era posible.
• Pueden agregarse dispositivos mientras el sistema este en trabajo sin necesidad de reiniciarlo.
• La existencia de un mismo conector para diversas interfaces.
• La evasión de los conflictos de recursos, debido a la utilización de una sola IRQ, una dirección y un solo DMA.
• Bajo Costo.

Este controlador se enlaza al conector, que proporciona la salida externa necesaria para conectar los periféricos deseados.

Continuar leyendo

Carta a Javier Dueñas Oquendo, Juventud Rebelde

Ariel-NM [blackhat4all@gmail.com]

Con una mezcla alícuota de sorpresa y decepción recibí en esta mañana (sábado, 5 de enero de 2007), de manos de un amigo, sendos ejemplares de Juventud Rebelde fechados en el día de hoy y de ayer, respectivamente.

La sorpresa tiene razones demasiado obvias para incluirlas aquí. Explico, pues, mi decepción:

Mi artículo ha sido maquillado y mutilado. A pesar de que en su redacción puse en tensión todos mis recursos gramaticales y estilísticos, puedo entender que retoques formales, por ejemplo, un cambio de título o la sustitución de unas líneas (digamos, “el logo del chispeante Gerardo Nordelo” por “un logo sobre los Cinco Héroes”) se avengan mejor al estilo de la publicación o a lo que el editor considere sea más potable para sus lectores. Puedo entender incluso que desaparezca la alusión al serial Degrassy Junior High habida cuenta el ya tradicional espíritu timorato de nuestra prensa, a pesar de los claros aldabonazos del Segundo Secretario del Comité Central de nuestro Partido.

Lo que no puedo entender ni mucho menos admitir son las omisiones, reescrituras y exégesis que solo traen por lógica consecuencia burdas tergiversaciones del contenido, ni mucho menos que tales revisiones, aun las más “inocentes”, se hayan efectuado sin previa consulta con el autor, a quien ni siquiera se le notificó que el artículo estaba listo para su publicación. Ya de paso: tengo e-mail, identidad electrónica propia y nada más justo (¡y honesto!) que esta fuese explícitamente consignada debajo de mi nombre.

Leo la respuesta de un airado lector que, con toda la razón del Universo, entre otras cosas, escribe (cito):

En cuanto al tema informático, no me explico cómo JR presta sus páginas para que una persona, luego de 12 años de aparecida la primera página cubana en Internet y 11 años de creado el nodo cubano en CENIAI, se le pueda ocurrir proponer la creación de una Intranet nacional.

Lo que desconoce ese lector es que no fue a mí, sino a usted, Javier, a quien se le ocurrió tan desinformada propuesta, producto directo de la mutilación y la reescritura de los párrafos originales, los cuales reenvío a continuación:

Desde aquí presiento la sonrisa (si no la carcajada) de muchos lectores, y otros tantos dudarán de mi salud mental cuando afirme: La solución inmediata está en Internet.

Para algunos, Internet es sinónimo de bombardeo contrarrevolucionario, pornografía, incitación al consumo, deshumanización fascista… Pura infección ideológica. (No voy a discutir aquí qué porciento de Internet se dedica a esos temas; no es necesario.) Para otros, abrir el acceso a Internet a todas las escuelas primarias, secundarias, pre-universitarios y tecnológicos del país –aun cuando nos libremos del costoso satélite gracias al cable submarino (fibra óptica, para ser exactos) Cuba-Venezuela– sería poco menos que un desatino económico. Y todos tienen razón, pero resulta que estamos hablando de asuntos bien diferentes…

Todo es cuestión de simple nomenclatura: Cuando se dice: “internet”, la mayoría de las personas piensa en grande, en la red internacional… Cuando se dice “intranet”, todo el mundo imagina la red local de una empresa, de un ministerio, de una universidad… ¿Cómo llamar entonces a una red que sobrepase los estrechos límites de una institución pero que no traspase las fronteras del país?

Si lo prefieren, podríamos llamarla “Intranet Nacional” a los efectos de este artículo. Porque a esa justamente, a la red nacional, es a la que me refiero…

En ningún momento, ni ahí ni en el resto del artículo, propongo la descabellada y desactualizada idea de “crear” la Intranet Nacional –esto es, crear lo ya hace tiempo creado– sino justamente darle provecho. Sin embargo, en la versión publicada usted pone expresamente en boca mía la siguiente tontería:

Desde mi punto de vista, la solución inmediata para muchas de estas faltas bibliográficas, más que en internet, la gran red internacional, está en desarrollar una intranet nacional.

Si no idiota, al menos ha logrado que yo aparezca como repatriado desde Marte ante una buena parte de los lectores. ¡Y justamente ante los lectores más estrechamente relacionados con la red nacional y cuyos aportes a esta idea serían invaluables!

Es bueno el debate. Puedo demostrar y con creces todo cuanto he escrito en ese artículo y promover todo tipo de discusión. Pero el debate sobre la base de lo que yo dije, no sobre lo que otros tergiversan.

Al final, el artículo queda trunco, se ignora la sugerencia en cuanto a la actualización del pool educativo (ya un lector se pregunta por quién pondrá el cascabel al gato) y se desvanecen toda su fuerza y convicción.

No insulte mi escasa inteligencia argumentando razones de espacio porque la ilustración que acompaña el artículo se extiende por un tercio de la plana. Si quería salvaguardar su buró eludiendo toda alusión directa al acceso a Internet o el serial norteamericano, unas pocas líneas a esta, mi dirección de correo electrónico, habrían bastado para atemperar el lenguaje en aras de la propuesta y habríamos encontrado sin dudas el punto de armónico equilibrio.

Mi prestigio como profesional se ha visto seriamente lacerado con esas burdas e inconsultas enmiendas: Fui profesor de la especialidad de Telecomunicaciones de la CUJAE y muchos de los que han leído el artículo y que trabajan directamente relacionados con el tema, de seguro fueron alumnos míos que hoy se estarán lamentando de mi avanzada y prematura chochez.

Exijo entonces que estas tergiversaciones sean enmendadas cuanto antes y solicito las direcciones de correo electrónico de los compañeros Luis R. Capó y Víctor Ángel Fernández para responderles a título personal.

Ariel Núñez Morera.

Continuar leyendo

Aprendiendo de Internet

Chacal [mariav.hedez@infomed.sld.cu]

Los otros días navegaba por la intranet y en la wikipedia me puse a mirar y a copiar varias cositas y entre ellas cosas relacionadas sobre la Internet, y me decía, yo se lo que es Internet pero ahí quienes piensa como se dice vulgarmente por la calle es la telaraña de las computadoras pero les traigo unas reflexiones y cosas interesantes, sobre la misma:

Internet

Internet es una red computacional que conecta millones de computadoras globalmente y proporciona comunicaciones mundiales para ser utilizadas en los negocios, casas, escuelas, y gobiernos.
Internet ha crecido explosivamente en los años 1990. Hay ahora más de doce millones de computadoras servidoras en Internet, cada una proporcionando algún tipo de información o servicio. El número de usuarios de Internet es muy difícil medir. Desde que cada servicio en Internet es usado por muchas personas, muchos millones de usuarios están actualmente en línea. El número de usuarios y servicios en Internet continúa creciendo así como se incrementan la variedad de los servicios.

Quizás el más popular servicio de Internet, la World Wide Web, ha acelerado el crecimiento de ésta mediante una interfaz gráfica, fácil de usar y basada en las técnicas de apuntar y hacer clic. Se atraen usuarios al World Wide Web porque es interactivo, porque es fácil usar, y porque combina los gráficos, texto, animación y sonido en un enriquecido ambiente de comunicaciones.

Cómo comenzó Internet

El comienzo de la tecnología Internet puede remontarse a 1969 cuando la Agencia de Proyectos de Investigación Avanzada (ARPA – Advanced Research Projects Agency), fundada por el Departamento de Defensa de Estados Unidos, dirige investigaciones sobre el trabajo en redes. Su fin fue para diseñar una red que permitiera a computadoras en diferentes tipos de redes comunicarse entre sí.

Durante los años 1960 y 1970, se crearon muchas tecnologías de redes de computadoras, cada una basada en un diseño de hardware particular. Algunas de estas redes, llamadas Redes de área local (LANs – Local Área Networks) conecta computadoras separadas a una distancia corta usando cables y hardware instalado en cada computadora. Otras redes más grandes, llamadas Red de área extensa (WANs – Wide Área Networks), conecta muchas computadoras separadas a grandes distancias, usando líneas de transmisión similares a aquellas usadas en los sistemas telefónicos.

Aunque las redes LANs y WANs facilitan compartir la información dentro de organizaciones, empresas, etc., la información se detiene en las fronteras de cada red. Cada tecnología de red movía la información de un lado para otro de modos diferentes, muchas veces basada en el diseño de su hardware. Una tecnología LAN particular podría solamente trabajar con computadoras especificas, y la mayoría de las tecnologías LANs y WANs eran incompatible entre sí.

Internet fue diseñada para interconectar los diferentes tipos de redes y permitir que la información se mueva libremente entre usuarios, independientemente de las máquinas o redes que ellos usen. Esto lo lograron por la adición de computadoras o dispositivos especiales llamados routers o encaminadores , para conectar diferentes tipos de LANs y WANs . Las computadoras conectadas necesitaban un protocolo común, conjunto de reglas compartidas que describen cómo transmitir los datos. El nuevo protocolo de red fue llamado TCP/IP. Ambos, TCP/IP y el sistema de redes conectadas forman Internet.

Continuar leyendo

Particionando para Linux

Eddy [edelvalle@hab.uci.cu]

Cuando realizamos la instalación de Linux en nuestra computadora, podemos hacer literalmente lo mismo que con Windows, y con mejores resultados. Dejar una partición para el sistema y otra para los datos de nosotros, los usuarios. Esta es una forma de particionar que sugiero para lograr esto, espero que les sea provechosa.

Comparación Linux vs. Windows

Esto se logra, cuando particionemos nuestro disco duro, tomando para la partición del sistema tan sólo 5Gb, lo que será suficiente, y no se asuste... que parece sorprendente, pero es así. Yo usaba Windows con una partición primaria de 20Gb de los que tenía usado 17. Yo trabajaba con VisualStudio .NET, Borland Developer Studio y un montón de programas más, pues el menú Programas del menú Inicio era de 3 listas largas que ocupaban toda la pantalla.

Ahora que uso Ubuntu 7.10 Gustsy Gibbon, con la partición primaria de 5Gb tengo tan sólo usados 3.7. Y tengo instalados programas con las mismas funcionalidades que tenía en Windows.

Para programar en la plataforma .NET uso MonoDevelop v0.14, una IDE libre para GNOME (un tipo de escritorio de Linux) con muy buenas prestaciones y el instalador tiene aproximadamente 33Mb, y no el DVD completo de VisualStudio como se usa en Windows.

Además si de “pacotilla” se trata, en Ubuntu con ConpizFussion que es un grupo de paquetes para efectos visuales, los cuales son mejores que los de Windows Vista y con mejor empleo de los recursos del sistema. Compiz fue probado en una computadora con un procesador Pentium II a 400MHz, con 32Mb de VRAM (Video RAM) y, claro, 256Mb de RAM. Funcionó con mejores resultados que Windows Vista en una computadora con un procesador Pentium 4 a 1.6GHz, y 512Mb de RAM, de los cuales en el arranque tan solo consume el 80% de esa memoria y necesita una tarjeta de video de última generación, de al menos 64Mb.

El plato fuerte.

Para instalar Linux, sugiero que se usen 3 particiones, de la siguiente forma:
1ª- SWAP (256Mb*)
2ª- /(5Gb, esta es la partición primaria)
3ª- /home (Resto del disco)
*este tamaño puede variar, dependiendo de la cantidad de memoria RAM instalada en nuestro equipo.

SWAP:

Esta partición se formatea con este sistema de archivos para usarla como memoria de intercambio para el sistema, del tamaño que estimemos necesario, dependiendo de nuestra RAM, el tamaño de dicha partición normalmente Linux lo sugiere luego de un análisis de tu hardware. Esto le sirve a Linux, como le sirve a Windows el archivo de intercambio, para cuando la RAM de nuestro equipo está llena volcarla en el disco duro, liberando parte de esta y así poder seguir cargando la RAM con nuevos datos.

Punto de montaje /:
Este solo slash indica que la raíz del sistema de archivos de Linux se encuentra en esa partición. Se formatea como unidad primaria de 5Gb. Siendo así la partición principal del sistema.

Punto de montaje /home:
Linux se compone de varios directorios: etc, var, usr, opt, ... etc .... Los cuales cada uno tiene su funcionalidad específica. Existe uno de ellos que se llama “home”, dentro del cual se crean los directorios personales de los usuarios que no son el “root” (superusuario, administrador) del sistema. Lo que debemos hacer es en el espacio restante del disco duro crear una partición con el punto de montaje “/home”. Esto hace que este directorio quede definido como esta partición, haciendo que todo lo que se guarde en él se guarde en esa partición, y como consecuencia trae que todos los datos de configuración, documentos, música, imágenes y demás de los usuarios sea almacenado en otra partición, a parte del sistema.

¿Qué ventajas tiene esto comparándolo con Windows?

Que si tenemos que reinstalar el sistema operativo, cuando lo hagamos le indicamos que vuelva a montar la partición primaria en “/” y que la formatee. Y le indicamos que monte como “/home” la tercera partición, donde se encuentran los datos de los usuarios, pero que no la formatee, para poder conservarlos.
Procedemos a instalar el sistema, y cuando este termine creamos los mismos usuarios que teníamos antes de la instalación. Y como Linux almacena todos los datos personales de cada usuario en su respectiva carpeta, cuando hacemos esto las carpetas vuelven a ser direccionadas y cuando nos logueamos por uno de los usuarios toda la configuración está restablecida, además de los documentos, las imágenes y demás se restablece la configuración del usuario: el papel tapiz, los correos guardados, las cookies y caché de los navegadores, todo lo que sea configurable se restablece exactamente como estaba antes de la reinstalación del sistema. Haciendo que no se note que reinstalamos el sistema y ahorrando tiempo a los usuarios, teniendo a punto la computadora de forma instantánea. No como en Windows donde a esa hora si no lo teníamos bien configurado perdimos los correos, la configuración de los programas y el escritorio. Claro si teníamos paquetes instalados los perdemos, para evitar eso hay formas de particionado de Linux más complejas.

Estas formas más complejas, donde se crea una partición para cada una de las carpetas del sistema, haciendo que si una parte del sistema se corrompe no tenemos que instalarlo completamente, con simplemente restablecer el contenido de la partición donde se encuentran los datos dañados el sistema restablece todas sus funcionalidades y servicio. Pero eso es para expertos en el tema, y este artículo es sólo un consejo para novatos en el tema.

Espero que tengan éxito en el uso del software libre.

Continuar leyendo