lunes, 24 de marzo de 2008

El Scanner

Reynier Reyes [rreyes33@alumno.uned.es]

Este Artículo lo he confeccionado mediante la ayuda del curso de Arquitectura de Máquinas del Palacio de computación y electrónica Isla de la Juventud. Espero que sea útil para todos.

El Scanner es un dispositivo que convierte imágenes o texto en papel en datos que pueden ser manipulados por un ordenador.

El principio de funcionamiento de un escáner es la digitalización, es decir, la conversión de una información analógica a datos comprensibles por el ordenador; para ello, se vale de una serie de componentes internos que posibilitan este objetivo. Una fuente de luz va iluminando, línea por línea, la imagen o documento en cuestión, y la luz reflejada en la imagen es recogida por los elementos que componen el CCD (Charged-Couple Device), dispositivo que convierte la luz recibida en información analógica. Por último, un DAC (Digital-Analog Converter) convierte los datos analógicos en valores digitales.

Este es, a grandes rasgos, el funcionamiento del escáner. Sin embargo, necesitamos conocer más conceptos; por ejemplo, la resolución. Cuando se habla de una resolución óptica de 600 ppp (puntos por pulgada), estamos indicando que su dispositivo CCD posee 600 elementos. Cuanta mayor sea la resolución, más calidad tendrá el resultado; en la actualidad, lo mínimo son 300 ppp, aunque 600 ppp es una resolución más conveniente si vamos a digitalizar fotografías. No obstante, la mayoría de escáneres pueden alcanzar mayor resolución, mediante la interpolación; se trata de un algoritmo por el cual el escáner calcula el valor situado entre dos píxeles digitalizados, a partir del valor de estos. Por lo que, hay que saber diferenciar entre la resolución óptica (real) y la interpolada.

Profundidad de color

Este parámetro, expresado en bits, indica el número de tonalidades de color que un pixel puede adoptar; lo normal en la actualidad es un valor de 24 bits por pixels. Aunque hasta hace poco los escáneres de blanco y negro, tonos de grises o 256 colores, lo cierto es que los 24 bits de color se han convertido en un estándar.

Hay escáneres capaces de utilizar 30 o incluso 36 bits de color, pero la mayoría lo hacen a nivel interno, para disminuir el intervalo entre una tonalidad y la siguiente; posteriormente, lo que envían al PC son únicamente 24 bits. Por otro lado, muy pocos programas pueden gestionar esos bits adicionales de color.

Tipos de "scanner"

De sobremesa o planos: son los modelos más apreciados por su buena relación precio/prestaciones, aunque también son de los periféricos más incómodos de ubicar debido a su gran tamaño; un "scanner" para DIN-A4 plano puede ocupar casi 50x35 cm, más que muchas impresoras, con el añadido de que casi todo el espacio por encima del mismo debe mantenerse vacío para poder abrir la tapa.

Sin embargo, son los modelos más versátiles, permitiendo escanear fotografías, hojas sueltas, periódicos, libros encuadernados e incluso transparencias, diapositivas o negativos con los adaptadores adecuados. Las resoluciones suelen ser elevadas, 300x600 ppp o más, y el precio bastante ajustado. El tamaño de escaneado máximo más común es el DIN-A4, aunque existen modelos para A3 o incluso mayores (aunque ya con precios prohibitivos).

De mano: son los "scanners" "portátiles", con todo lo bueno y lo malo que implica esto. Hasta hace unos pocos años eran los únicos modelos con precios asequibles para el usuario medio, ya que los de sobremesa eran extremadamente caros; esta situación a cambiado tanto que en la actualidad los "scanners" de mano están casi en vías de extinción. Descansen en paz.

Su extinción se debe a las limitaciones que presentan en cuanto a tamaño del original a escanear (generalmente puede ser tan largo como se quiera, pero de poco más de 10 cm. de ancho máximo) y a su baja velocidad, así como a la carencia de color en los modelos más económicos. Lo que es más, casi todos ellos carecen de motor para arrastrar la hoja, sino que es el usuario el que debe pasar el "scanner" sobre la superficie a escanear (abstenerse aquellos con mal pulso). Todo esto es muy engorroso, pero resulta eficaz para escanear rápidamente fotos de libros encuadernados, artículos periodísticos, facturas y toda clase de pequeñas imágenes sin el estorbo que supone un "scanner" plano.

De rodillo: unos modelos de aparición relativamente moderna, se basan en un sistema muy similar al de los aparatos de fax: un rodillo de goma motorizado arrastra a la hoja, haciéndola pasar por una rendija donde está situado el elemento capturador de imagen.

Este sistema implica que los originales sean hojas sueltas, lo que limita mucho su uso al no poder escanear libros encuadernados sin realizar antes una fotocopia (o arrancar las páginas, si se es muy bestia), salvo en modelos peculiares como el Logitech FreeScan que permite separar el cabezal de lectura y usarlo como si fuera un "scanner" de mano. A favor tienen el hecho de ocupar muy poco espacio, incluso existen modelos que se integran en la parte superior del teclado; en contra tenemos que su resolución rara vez supera los 400x800 puntos, aunque esto es más que suficiente para el tipo de trabajo con hojas sueltas al que van dirigidos.

Modelos especiales: aparte de los híbridos de rodillo y de mano, existen otros "scanner" destinados a aplicaciones concretas; por ejemplo, los destinados a escanear exclusivamente fotos, negativos o diapositivas, aparatos con resoluciones reales del orden de 3.000x3.000 ppp que muchas veces se asemejan más a un CD-ROM (con bandeja y todo) que a un "scanner" clásico; o bien los bolígrafos-"scanner", utensilios con forma y tamaño de lápiz o marcador fluorescente que escanean el texto por encima del cual los pasamos y a veces hasta lo traducen a otro idioma al instante; o impresoras-"scanner", similares a fotocopiadoras o más particulares como las Canon, donde el lector del "scanner" se instala como un cartucho de tinta.

Además de los tipos de scanner que existen hay que tener en cuenta la forma de conectarlo a la maquina a la maquina por que de ella depende la velocidad y el precio del dispositivo

Conectores: ¿paralelo, SCSI o USB?

Esta es una de las grandes preguntas que debe hacerse todo futuro comprador de un "scanner". La forma de conectar un periférico al ordenador es siempre importante, pues puede afectar al rendimiento del dispositivo, a su facilidad de uso o instalación... y fundamentalmente a su precio, claro.

Conector SCSI

Sin lugar a dudas, es la opción profesional. Un "scanner" SCSI (leído "es casi") es siempre más caro que su equivalente con conector paralelo, e incluso muchos resultan más caros que modelos de mayor resolución pero que utilizan otro conector. Debido a este sobreprecio no se fabrican en la actualidad "scanners" SCSI de resolución menor de 300x600 ppp, siendo lo más común que las cifras ronden los 600x1.200 ppp o más.

Puerto USB

En general podríamos decir que los "scanners" USB se sitúan en un punto intermedio de calidad/precio. La velocidad de transmisión ronda los 1,5 MB/s, algo más que el puerto paralelo pero bastante menos que el SCSI; la facilidad de instalación es casi insuperable, ya que se basa en el famoso Plug and Play (enchufar y listo) que casi siempre funciona; todos los ordenadores modernos tienen el USB incorporado (los Pentium normales ya son antiguos... ¡qué se le va a hacer!); y además dejan el puerto paralelo libre para imprimir o conectar otros dispositivos.

Continuar leyendo

ntdelect.com

Alien [blackhat4all@gmail.com]

Lo prometido es deuda. Como les dije en la edición pasada retomaría la infección y desinfección del troyano ntdelect.com.

He pasado estas últimas ediciones de BlackHat tratando de no publicar, aunque sin dejar de investigar y escribir artículos y códigos. Mientras tanto me he encontrado varias veces con máquinas infectadas por troyanos que, aunque parezcan distintos, les veo a casi todos un funcionamiento muy similar entre si. Tal es el caso del ntdelect.com, netdeiect.com y ntde1ect.com.

Básicamente es un virus cuya forma de propagación es mediante las memorias flash y, aunque en BlackHat se han publicado ya varios artículos ayudando a prevenir las infecciones que se realizan desde estos populares dispositivos, aún muchos continúan dejando oculto los archivos tanto protegidos por el sistema como los que mantienen el atributo de oculto.

En el caso particular del ntdelect.com se suele ver acompañado por un autorun.inf que es quien manda a cargar el ejecutable y este es el que realiza toda la función.

Cuando me topé con el por primera vez confieso que me fue un poco difícil en un principio poder eliminarlo, y el problema es que no es el ntdelect.com como tal el que realiza la infección, sino uno que se encuentra en c:\windows\system32 y de nombre kavo.exe.

No importa cuantas veces se elimine tanto el autorun.inf como el ntdelect.com, siempre se volverá a colocar en la raíz de la unidad desde donde carga el sistema operativo como en la raíz de la memoria.

Para una eliminación efectiva, habrá que ir en primera instancia hasta el registro y desde allí entrar a la clave: HKEYCU\software\microsoft\windows\currentversion\run, que es uno de los tantos lugares del registro desde donde se mandan a cargar las aplicaciones que empezarán a correr desde que encendemos nuestra máquina. El nombre de la clave que debemos eliminar es kava, pero para no cometer errores, debemos asegurarnos que contenga la dirección “c:\windows\system32\kavo.exe”. Una vez hecho esto debemos ir hasta c:\windows\system32 y eliminar el archivo kavo.exe.

Haciendo lo primero estamos evitando que cuando se encienda la máquina el virus comience a correr, y con lo segundo simplemente estamos eliminando al responsable de colocar en la raíz de cada memoria el ntdelect.com.

Continuar leyendo

Refrigeración de nuestra PC

Yordan [truano@infomed.sld.cu]

Hola amigos, nuestro país es bastante caluroso y como todos deben saber, los equipos electrónicos no son los mejores amigos de calor, las PC no quedan exentas de esta observación, un PC debe estar refrigerado adecuadamente para su correcto funcionamiento, en este articulo voy a ayudarlos a crear un buen sistema de enfriamiento para nuestro PC basándonos en los aditamentos que podemos adquirir en nuestro país.


Generación del calor.

El calor se puede generar de diversas formas, pero en una computadora se reducen básicamente a dos: calor por rozamiento y calor en los semiconductores.

El calor por rozamiento se produce únicamente en los componentes con partes móviles, es decir, en los medios de almacenamiento masivo. De ellos, los discos duros son los que más calor generan. Con la aparición de discos de alta velocidad de giro (7.000 a 10.000 r.p.m.) ha comenzado a ser una necesidad refrigerarlos de alguna manera. También los CD’s (Lectores y Quemadores) generan una buena cantidad de calor, pero éste es debido más al láser que al rozamiento de las partes móviles. En cualquier caso, la temperatura que alcanzan es muy inferior a la de los discos duros, El sobrecalentamiento en los Discos Duros estaría fácilmente resuelto con un fan con disipador para Discos Duros, supongo que los hayan visto en alguna ocasión estuvieron muy de moda hace un tiempo.

Por otra parte, el calor producido en los semiconductores comenzó a hacerse notar con los 486. Estos fueron los primeros microprocesadores en los que se aconsejaba el uso de un disipador y un ventilador que mantuviesen una temperatura adecuada. En los procesadores actuales estos medios de enfriamiento se han vuelto absolutamente imprescindibles, además, de haber incrementado notablemente su potencia refrigeradora. Pero no son los microprocesadores los únicos semiconductores que generan calor. Ya en los XT, los transistores de la fuente de alimentación se calentaban notablemente, y de ahí que las fuentes utilicen un ventilador. También algunas placas como tarjetas de sonido, de vídeo o controladoras SCSI alcanzan elevadas temperaturas, debido a la creciente potencia de sus componentes.

Problemas de un calentamiento excesivo

El funcionamiento de los semiconductores está íntimamente ligado con la temperatura. Cuando ésta se eleva por encima de los límites para los que fueron concebidos, su comportamiento deja de ser estable y los fallos comienzan a sucederse (como por ejemplo cuelgues, errores en dispositivos de hardware y ralentización del funcionamiento del sistema – principalmente por el elevado calor del disco duro y procesador). Si la elevación de temperatura es pequeña, cuando ésta vuelva a sus niveles normales, el semiconductor volverá a funcionar correctamente. Si la elevación es demasiada, el daño será irreversible y el componente se habrá quemado.

Transmisión del calor

El calor no sólo afecta al componente que lo genera, sino a todos los circundantes. Por lo tanto, se hace imprescindible evacuarlo correctamente y, para ello, nada mejor que conocer los mecanismos de transmisión del calor. El calor se transmite por tres mecanismos que siempre aparecen combinados: conducción, convección y radiación. Sin embargo, solo nos interesan los dos primeros.

Conducción

La conducción es el método más directo de transmisión del calor. Se produce cuando dos partes de un cuerpo, o dos cuerpos en contacto directo, se encuentran a distinta temperatura. Entonces el calor pasa de la parte más caliente a la más fría, hasta que se equiparen las temperaturas. Para aumentar la transmisión de calor por conducción se puede aumentar la superficie de contacto entre la parte fría y la caliente, o elevar la diferencia de temperaturas entre estas.

Convección

La transmisión por convección se da en líquidos y gases. Para el caso que nos interesa, en el aire. Se produce por ser menos denso el aire caliente que el frío y, por lo tanto, más ligero. Por ello, el aire caliente tiende a subir, siendo reemplazado por aire frío en las zonas inferiores.

El mecanismo anterior se denomina convección natural, y es valido para evacuar pequeñas cantidades de calor. Para mejorar el rendimiento se suele utilizar la convección forzada, que consiste en acelerar el movimiento natural del aire por medio de un ventilador. Para que el ventilador no se oponga al mecanismo natural de convección, es importante que impulse el aire caliente de abajo hacia arriba, o el aire frío desde arriba hacia abajo como veremos en la siguiente figura.

Consejos

Teniendo en cuenta el fenómeno de convección natural debemos ubicar los dispositivos generadores de calor lo mas arriba posible dentro del Chasis, de esta forma evitamos el calentamiento innecesario de los demás componentes, bastante ayuda también sería tener un chasis lo mas grande posible para garantizar una mayor ventilación, las cintas y demás cables que existen dentro del PC entorpecen la corriente de aire, por lo cual debemos acomodarlas de forma tal que no queden sueltas en medio del camino lógico a seguir por el aire, un buen detalle sería conseguir las nuevas cintas redondas para trasmisión de datos, las cuales ofrecen menos resistencia al aire que circula ventilando nuestro PC, si tu PC tiene un chasis con tobera lateral (tubo plástico que va desde la tapa del chasis hasta el procesador) dicha tobera se destornilla, en su lugar se atornilla un ventilador y sobre este se vuelve a colocar la tobera, a la hora de mejorar el enfriamiento del procesador solo tenemos que tener en cuenta que mientras mayor sean el disipador y el ventilador es mucho mejor el enfriamiento.

Muchas personas prefieren tener el chasis destapado para tratar de ventilar mas el PC, si se tiene el juego de ventiladores para crear una corriente de aire que propicie la convección forzada como lo muestra la figura anterior, es un error tener el chasis abierto, pues la corriente de aire de dispersaría perdiendo su eficacia.
Espero que este artículo les sirva de mucho pues estamos solamente en febrero y ya hay un calor endemoniado, sería prudente crear una situación propicia para que nuestra PC no sufra los embates de nuestro clima tan caluroso.

Continuar leyendo

¡OLED y SED!, nuevas tecnologías de pantallas digitales

Eliux [aorozco@infomed.sld.cu]

Hace tiempo que se anuncia la aparición de una tecnología que va a provocar un cambio gigantesco en el mundo de las pantallas. Fue la motivación de los especialistas el encontrar un producto que resolviera muchos de los puntos débiles que tienen las actuales tecnologías de pantallas, cómo son el ángulo de visión, tiempo de respuesta, brillo, contraste, portabilidad, etc. La tecnología OLED logró cumplir con estos requisitos, y con creces:

¡OLED!

Tal vez algunos haigan oído hablar de él, y que no se confundan con OLE, que es una tecnología de Microsoft creada para Windows que permite insertar objetos creados de una aplicación a otra. Esta es OLED, un titán encadenado desde 1996 que espera su liberación al mercado de los usuarios.

¿OLED?

OLED son las siglas de Oganic Light-Emitting Diode (Diodo orgánico de emisión de luz). Ha sido creado por varias compañías, pero se materializó por primera vez por el Dr. Ching W. Tang en Eastman Kodak Company. OLED se basa en la utilización de un diodo compuesto por una capa electroluminiscente formada por componentes orgánicos, que, bajo una estimulación eléctrica, son capaces de emitir luz por sí mismos, lo cual diferencia a esta del resto de las pantallas existentes. Al emitir luz propia, permitirá un mayor ángulo de visión, rango de colores y contraste. Hasta la fecha sea han ideado varios tipos de OLED, como son el PLED (Polymer light-emitting diodes), también conocido como LEP (Light-Emitting Polymers) o FOLED (Flexible OLED) que son diodos que emiten luz, creados a partir de polímeros, el HOLED (Phosphorescent OLED) que es capaz de convertir hasta el %100 de la energía en cada OLED en luz; y el POLED (Patternable organic light-emitting device) que usa una capa electroactivada por luz o calor.

Lo más importante es que su inmensa calidad va acompañada de su inmensa rentabilidad para la fabricación: las pantallas OLED son mucho más baratas que el resto; pero además, en el futuro su coste de fabricación y manufacturación podría ser aún más barato, consumir cada vez menos energía y fabricarse en paneles más finos.

La escalabilidad será algo a tener en cuenta, ya que se podrán fabricar modelos que abarcan unas pocas pulgadas, muy útil para dispositivos cómo webcams, cámaras, celulares, reproductores portátiles, y al infinito y más allá… Pero también las pantallas macro se beneficiarán: se podrán construir TVs más grandes que los gigantes que existen hoy de LCD y TV o plasma, así como para artículos lumínicos decorativos relativamente grandes.
Un uso poco usual de estos tiempos será la implementación de esta tecnología en un gran número no pequeño de artículos de la industria textil: esto da un margen de lo flexible que puede ser una pantalla de este tipo.

Si es tan bueno. ¿Por qué no es tan usado?

OLED fue creado hace más de una década (1996), y lo cierto es que hasta el momento no se ha comercializado aún, al menos no en cantidades industriales; y lo cierto es que esta piedra filosofal tiene algunos bugs que se están estudiando. Uno de los problemas es la diferencia en el tiempo de vida de las distintas capaz de colores que posee: cuando las de color rojo y verde son capaces de estar en funcionamiento hasta 40.000 horas, pero el azul no supera las 1000 horas, lo que las hace parecer pantallas desechables, al menos por ahora.

Otro no menos importante es su impacto ambiental, su reciclaje es mucho muy costoso y además hoy en día la tendencia es crear tecnologías cada vez más ecológicas…

Al parecer, no es tan bueno cómo lo pintan. Entonces ¿tendremos que acostumbrarnos al plasma y al LCD por ahora?

Bueno, todo no es color rosa, pero aun así pueden fabricarse, aunque esos detalles defectuosos hay que tenerlos en cuenta; de si se usará cómo los estándares de la actualidad... ¿Por qué no? El mercado dirá la ultima palabra; pero para los que se quedan inconformes con los defectos del OLED, les presento a SED.

¿SED?

SED comenzó a ser desarrollado por Canon en 1986, pero no fue hasta el 2004 que con la ayuda de Toshiba fue desarrollada debidamente. Este es el nieto de la tecnología base de los televisores modernos que actualmente abundan en el mercado. En esta tecnología se eliminan los defectos de los CRT y los TFT y se combinan sus virtudes: En vez de un chorro de electrones, se utiliza un emisor de electrones para cada pixel, para iluminarlo según convenga; estos chocarán contra un sustrato de fósforo encargado de producir la luz que hará brillar los colores primarios RGB en cada pixel. El resultado es un panel más fino que los actuales TFT y con las características de brillo, color y contraste de las pantallas CRT de gama alta. También se ahorra energía (algunas veces un 50% del consumo actual); además, los emisores de electrones tienen un tamaño de unos pocos nanómetros, lo que implica compatibilidad con altas resoluciones.

¿Entonces porque no se comercializa?

Se esperaba que esta a finales del 2007 se comenzaría la explotación en masa de SED, y eso que antiguamente ya había sido aplazado, de hecho el tiempo su fabricación fue todo una proeza en demora (al igual que OLED), tal vez todavía haiga que esperar unos meses más, pero creo que el 2008 es el año elegido para empezar la guerra por la aceptación de los usuarios entre el SED y el OLED.

Continuar leyendo

Windows server 2003 (Parte 3)

Chacal [mariav.hedez@infomed.sld.cu]

Dynamic Host Configuration Protocol (DHCP) es un estándar IP para simplificar la
administración de la configuración del IP del cliente. El estándar DHCP permite que Usted utilice los servidores de DHCP para manejar la asignación dinámica de las direcciones y la configuración de otros parámetros IP para clientes DHCP en su red.

¿Por qué utilizar DHCP?

En redes TCP/IP, DHCP reduce la complejidad y el trabajo administrativo de re-configurar las computadoras cliente. Para entender por qué DHCP es útil para configurar clientes TCP/IP, es importante comparar la configuración manual de TCP/IP con la configuración automática que utiliza DHCP.

Configuración manual de TCP/IP

Cuando Usted realiza la configuración IP para cada cliente, ingresando manualmente información como la IP address, subnet mask o default gateway, pueden llegar a producirse errores de tipeo, que es probable deriven en problemas de comunicación o problemas asociados a la IP duplicada. Por otra parte, hay carga administrativa adicional en las redes donde las computadoras se mueven con frecuencia de una subnet a otra y, en adición, cuando necesita cambiar un valor IP para varios clientes, tiene que actualizar la configuración IP de cada cliente.

Configuración automática TCP/IP

Cuando Usted configura un DHCP Server para dar soporte a clientes DHCP, éste provee automáticamente la información de la configuración a clientes DHCP y también se asegura que los clientes de la red utilicen la configuración correcta. Además, si Usted necesita realizar un cambio en la configuración IP de varios clientes, podrá realizarlo una vez en el DHCP Server, para que el DCHP actualice automáticamente la configuración del cliente reflejando el cambio.

Ejemplo
Usted necesita configurar 100 computadoras con la configuración IP, pero sin DHCP no le quedará otra alternativa que configurar manualmente cada una de las computadoras individualmente. A esto hay que sumarle que se tiene que documentar la configuración IP de cada cliente, y que si se tiene que realizar un cambio en la configuración IP de los clientes, también tendría que re-configurarla manualmente en cada uno de ellos.
Pero DHCP tiene la solución a esto. Con DHCP Usted sólo tendrá que agregar la configuración al DHCP Server, que actualiza los 100 clientes de la red. Además, cuando necesite realizar un cambio de configuración IP, el mismo será efectuado una vez solamente en el DHCP Server, requiriendo simplemente que cada cliente TCP/IP renueve su configuración.

Continuar leyendo

¡Mamá, mamá, atrapé un fraggle!

JKS [jksware@gmail.com]

UN FRAGGLE

Tal como mis áreas de conocimientos no incluyen los troyanos, backdoors, keyloggers y hooks, me puedo atrever a escribir este artículo después de que mi recién instalado antivirus me sorprendiera con un par de ventanas algo estremecedoras, preguntándome qué hacer con su último security threat detectado mediante el realtime file system protection y application modification detection – o lo que es lo mismo, su protección del sistema de ficheros en tiempo real y el motor de detección de modificaciones de aplicación – esta última perteneciente al firewall.

¿Qué hacer cuando tu antivirus te dice que – habiendo recién compilado tu programa que se conecta a un servidor SMTP y POP para el correo – este último “ha sufrido modificaciones, pero cuidado, puede no ser un cambio de versión del mismo”?

Para tener una ligera idea del asombro que me causó la susodicha alerta – que pude copiar en un screenshot que muestro más abajo – me explico mejor.

Para los que hagan sus programitas, el hábito de compilar y ejecutar, ya casi automático en muchos – incluyéndome – después de hacer la más ligera modificación en un programa, nos evita la molestia de cambiar mucho código, que nos dé error, y después buscar qué fue lo que hicimos mal. Para esto en Delphi se resume la opción en la tecla F9, con la que podemos compilar y ejecutar en un solo paso.

Así que cuando después de apretar F9 para ver qué había entendido el compilador con el nuevo código que recién había puesto, me sale en menos de 10 segundos un “cartel rojo” diciendo que mi programa Paula – que se encontraba corriendo en esos momentos – había sufrido modificaciones. Me aparece de así, en el aire; me quedé realmente impresionado con este nuevo truco que me sacaba del sombrero el Eset Smart Security. Es que esto sólo se puede hacer si se comprueba a través de un CRC el programa directamente desde la memoria – el qué es un CRC lo traté en números anteriores –, y se guarda en un registro, para después compararlo con las anteriores ejecuciones. Si esto no es un buen truco para un antivirus, que por favor alguien me diga cuál es.

Pero no sólo esta sorpresa me guardaba el antivirus, sino que le doy Allow (permitir) a la ventana, mi programa me pregunta muy cortésmente si me quiero conectar al servidor de correo de salida, le digo que sí, pero nuevamente me sale el “cartel rojo”. “Bueno, esto es muy insistente”, me digo. Va por el mismo camino que el Vista, con sus cartelitos tediosos. Pero para mi sorpresa, el contenido era muy diferente al de la ventana anterior: este me pide permiso para que un programa no identificado trate de conectarse por determinado puerto a una dirección IP que me daba más abajo. Era mi programa Paula, tratando de conectarse al servidor de correo. Aseguro que me cree una regla – es decir que nunca más me pregunte de este caso en específico – y clickeo allow de nuevo.

Vista de la aplicación.

WOW!

Haciendo un poco de memoria, hace algún tiempo tuve instalado NOD32 – por el mismo modo de prueba a que someto algunas de estas aplicaciones – y se ha debatido tanto esto, que sinceramente no quiero ahondar en el asunto. El tema es que este no reconocía ni era capaz de eliminar alguno de los virus más comunes que se presentan por las memorias en todas sus modalidades, y por lo que fui capaz de ver, además de agregarme un par de líneas de texto – bastante molestas – al final del correo diciendo que “todo está bien en este mensaje”, no tenía otro uso práctico para mí.

UN POCO DE HISTORIA

Siempre me pareció que el Kaspersky – del arquitecto con el mismo nombre – y el Symantec eran los antivirus más rentables, el primero por ser definitivamente el más completo antivirus that ever came to life y el segundo, pues bueno, por poseer la mejor relación – en mi opinión – seguridad contra rendimiento. El Kaspersky pues bueno, quizá por ser tan paranoico, me parece el antivirus idóneo para instalar en escuelas – o en centros públicos en general – donde la afluencia de personas bien intencionadas con programas mal intencionados puede poner en peligro cualquier sistema. Pero para el confort de casa, o de tu puesto de trabajo, no es el correcto. Para esto existía por regalo de la naturaleza el no tan reconocido por todos Symantec Antivirus, salido como por historieta del Norton Antivirus, ingeniado después de que la empresa Symantec comprara los derechos del Norton Commander, tan útil en la era del MS-DOS – que no es más que un paquete de aplicaciones programado por un gurú de la informática llamado Norton, que hacía absolutamente todo lo que el sistema no se atrevía a hacer.

Por lo que respecta al segundo, es para mí historia antigua. Los diseñadores del mismo no se han atrevido a hacer los cambios, tanto de interfase como de su motor de búsqueda, necesarios para adaptarse correctamente a los regímenes más agresivos de trabajo en que se puede encontrar uno de ellos, que en un tiempo lo convirtió y mantuvo como un antivirus de lujo.

Volviendo al NOD32, el punto culminante que hizo que se ganara el titulo de “programa no deseado” en mi PC fue justamente su falta de interacción con el usuario y su desesperante desconfianza – no confundir con la paranoia casi inocua del Kaspersky que antes mencionaba – que tenía ante todo las aplicaciones que requieren de grandes prestaciones. Esto devino de la instalación del World of Warcraft (WoW) con su correspondiente Emulator para emular el server que mi conexión telefónica no podía concederme.

Resulta que el WoW es un juego multiusuario y de rol por excelencia, y los que lo conocen sabrán que esta capacidad de interactuar con otro usuario por banda ancha a través de este rito mágico, atrae a miles de usuarios a nivel mundial que a la vez se encuentran en el cibermundo.

Esta propaganda que acabo de dar no es por gusto. Significa que si tú eres programador de antivirus, y quieres que este venda, lo primero que tendrás que hacer es un estudio de mercado para reconocer qué programas usan más tus posibles usuarios, y si haces un firewall, tendrás que tener en cuenta de que por ahí se conecta no sólo el Outlook y Internet Explorer, sino también podría tratar de conectarse el WoW con su servidor remoto en Internet por un puerto que no es convencional. Sin esta conexión, el WoW no es nada más que 1,5 Gb de disco duro mal empleados.

Así que, cuando después de descomprimir la carpeta que contiene el emulador del servidor del WoW, de usar una utilidad para crearme un usuario, de ejecutar el emulador, de esperar a que se inicialice y de finalmente ejecutar el WoW, para un total de una hora y casi dos gigas ocupados desde que empezara a instalarlo, me dijo ( el WoW ) en su menú inicial con las dos torres místicas al estilo del Señor de los Anillos, que no podía conectase al “servidor remoto”, que da la casualidad no era más que 127.0.0.1 – para los newbies esto es localhost, o sea, mi propia dirección IP de red – ya que no lo encontraba. De más decir que esto fue suficiente para sacarme de paso.

Empecé a desesperarme y me dije a mí mismo, “debe ser el producto estrella de la empresa de Redmond”, que en su Service Pack 2 incluyó un firewall y Centro de Seguridad también muy molestos, pero que por suerte – o por precaución contra las leyes antimonopolio de la Unión Europea – supieron poner un “botón de apagado” para aquellos que les molestara tanto como a mí.

CRITIC-ON

Pero al parecer no, increíblemente esta vez NO era culpa de Redmond, sino de mi indeseable antivirus Nod32 en su versión más propagada para NT. Por primera vez consideré a un antivirus como el virus en sí. Lo primero que hice fue darle la orden de parar a través de la consola de servicios, pero mi juego seguía esperando por la conexión. ¿Será persistente el muy condenado? Terminé mandándolo a desalojar mi computadora a través de su instalador. Después de esto reinicié, y al fin, pude ver el panel de selección de personajes del WoW.

Lo que quiero decir con esto es que, más que dármelas de sabihondo en este mundo tan inmenso de virus y vacunas contra estos virus, agregar mi modesto criterio respecto a algunos de los mismos. El mejor antivirus no va a ser el que más virus detecte según los Virus Bulletins, o el que menos falsos positivos tenga en su record, sino el que verdaderamente cumpla con la voluntad del usuario y, de paso, todas las cualidades anteriores, incluyendo que corra en la máquina en la que el usuario tenga dominio, ¡incluso si es una PII!.

Continuar leyendo