lunes, 9 de junio de 2008

PageRank de Google

Alien [blackhat4all@gmail.com]

Por suerte, vivimos en un mundo en el que prolifera la información. En las redes se puede encontrar todo tipo de información, solo es necesario saberla buscar.

Sin embargo, esta cada vez más creciente fuente de recursos se ha vuelto una verdadera tela de araña. Pero no de la que se suele ver en las películas de Spiderman, o la que se tatúa en los cuerpos de las personas. La red a la que me refiero es como la que ve en los techos de las casas, como la que teje una araña loca que no sabe si va a hacer una telaraña o un abrigo.

Buscar un contenido determinado en ese universo de posibilidades resultaría un verdadero infierno si no se cuenta con la ayuda de un software que permita indexar el contenido y hacer que lo que demoraría días aparezcan en cuestión de segundos.

En este caso, espero que coincidan conmigo en que el mega buscador por preferencia está en manos de Google, quien no solo nos muestra el contenido que estamos buscando y similares, sino que es capaz de ordenar la información haciendo que aparezca entre las primeras opciones la página que se supone sea la más accedida y por lo tanto la que mejor y más información brinda al respecto.

A este método de organización se le denomina PageRank, y será sobre el mismo que tratará este artículo.

La Web

En Internet coexisten millones de páginas las cuales se agrupan en distintos grupos. Algunas hablan sobre informática, otras sobre animales, otras sobre literatura… En fin, que tratar de generar un método que de a cada página un valor con el que pueda competir con el resto de la Web no es nada fácil.

Para que entiendan mejor el problema que se crea a la hora de asignar los valores, tomemos por ejemplo tres páginas nacionales:
Infomed
La página del Hospital Ameijeiras
El foro del Vanguardia
El joven club de las tunas

Las dos primeras son sobre medicina y las otras dos mayoritariamente sobre informática.

Como el Ameijeiras pertenece a la red de salud y en este caso el mayor exponente es Infomed, se supone que el valor asignado a esta página sea menor que el de Infomed. y por ser el foro del Vanguardia más visitado que el joven club de la tunas, este tendrá mayor valor. Visto de esta forma, al hacer una comparación entre los dos primeros o los dos segundos no habrá ninguna dificultad en saber cual está por encima del otro, pero si se busca un contenido que por casualidad esté en las cuatro páginas, ¿Cuál estaría en primer lugar?, ¿Quién quedaría de último?

Este tipo de problemas se presenta a menudo en la red. En este caso hemos simplificado el problema a tan solo 4 páginas y los criterios para escoger el de mayor puntuación se limitan tan solo a la cantidad de visitas que reciba cada página.

El PageRank de Google es mucho más complejo que esto, y los criterios para seleccionar la mejor página son muchos más. En este caso trataremos sobre uno en específico: Los vínculos.

Por lo general una página alojada en cualquier servidor es referenciada por otras, y esta a la vez señala a otras páginas más.

De forma similar se van pasando los valores de página a página.
Una web que tenga puntuación 10 y apunte hacia 5 direcciones, está donando 2 puntos a cada página a la que hace referencia, aumentando con esto el valor de las mismas.

De esta forma, lo más importante no es la cantidad de sitios que apuntan al nuestro, sino el valor de los mismos y la cantidad de link que tienen.

Nota: Aquí se puede ver como una página, referenciada por otras páginas de alto Pagerank, puede tener un valor superior incluso que las páginas que hacia ella apuntan.

Trampas en PageRank

Ya hemos hablado en otras ocasiones sobre algunas “cositas” que se pueden hacer para mejorar nuestra posición dentro del buscador hemos aclarado en todos los caso que los intentos fraudulentos por elevar nuestra posición pueden ser penados por el buscador, no obstante, siempre podemos tratar de sacar provecho de la situación.

Como dijimos anteriormente, nuestro sitio se beneficiará más según esté señalado por mejores webs. si queremos subir nuestra posición de una forma segura, una alternativa podría ser tratar de subir la posición de las páginas que hacia nuestro sitio apuntan.

Este efecto se puede lograr de una forma sencilla, sin muchas complicaciones y lo mejor: segura. Cualquier detección de fraude por parte de Google penalizará a la página que estamos tratando de beneficiar y no a la nuestra y, aunque a la larga nos afecta, pues perdemos varios puntos, nos mantendremos “en competencia”.

También podemos ayudar a otros a subir su posición si donamos todos nuestros puntos a esa otra página. Para esto bastará con tener un solo link en nuestro sitio, y ya con eso todos los tantos que nos sean asignados a nosotros serán transferidos hacia la página secundaría.

Si esta segunda página sigue propagando los votos hacia otra y esa otra a otra y esa… y luego a nosotros, eso puede ser interpretado como granja de vínculos, y con esto convertirse todas estas webs en candidatas segura a la eliminación, así que cuidado!!.

Dont’n do that

Los bot’s, que son los encargados de entrar a cada página y ver los vínculos que esta tiene, no leen la página, sino que analizan el código. De esa forma puede ser válido para ellos incluso el contenido que se encuentra enmarcado como comentario u oculto.

Esto puede ser aprovechado por ciertas personas para darles a sus página un valor adicional. Aunque no es común, se puede ver cierto virus cuya misión es entrar en servidores y colocar en medio de la página un link hacia un sitio determinado, con lo que estarían elevando esa web al infinito (y más allá.)

Continuar leyendo

Crear búsquedas en Microsoft Acces

L1nk [L1nk.darck@gmail.com]

Bueno hace algunos días me encargaron en diferentes instituciones el hacer una base de datos para el control de Usuarios, Personal y Pacientes; y una de las cosas que más me solicitaban era el poder hacer una búsqueda de cualquier registro guardado en la BD según el campo de interés: por nombre, dirección o carnés de Identidad. En ese momento no contaba con mas ningún gestor de bases de Datos que Access y Así que en menos de 2 horas tuve que aprender a usarlo ya que no sabia nada de el y no podía quedar mal con el encargo. Lo que me sorprendió fue el descubrir que todo al que le preguntaba como hacer una búsqueda no me sabía responder con claridad así que después de metérmele adentro di con el clavo aquí les va:

1) Lo primero es crear una consulta con los campos que deben aparecer en la búsqueda y definimos en el primero de los campos (que será por el que se va a buscar) en la parte de criterio ponemos esto: Como [Escriba el Nombre por el que buscar: ] & "*"
Guardamos la consulta bajo el nombre (en este caso) de Búsqueda por nombre.


2) Después de esto vamos a crear el macro que nos mostrara el cuadro de búsqueda, vamos a la parte de los macros damos en crear uno nuevo en vista de diseño y en el primer campo ponemos: CuadroMsj, en el segundo ponemos esto: AbrirDiagrama y lo guardamos bajo el nombre de Macro1.

3) Luego creamos el formulario que nos mostrara el contenido de la consulta de “búsqueda por nombre”, para probar que esta funcionando el macro ejecutamos el formulario y si todo esta correcto debe de aparecer un recuadro de búsqueda donde podremos ingresar el nombre del registro a buscar.
4) Como ultimo paso solo nos queda colocar el botón que nos abrirá el formularios y ponerle un diseño bonito y fácil de utilizar por los usuarios.

Continuar leyendo

¿Cómo funciona?: Pantallas y ratones táctiles o "touchpad"

Reynier Reyes [rreyes43@alumno.uned.es]

Les dejo este artículo a su disposición ya que me ha parecido interesante compartirlo con la comunidad.

Muchos ordenadores portátiles usan el llamado "touchpad" como ratón. Se trata de una pequeña superficie sobre la que desplazamos un dedo con la que controlamos el movimiento del cursor en la pantalla. También habremos visto las pantallas táctiles, tocando con un dedo sobre la pantalla simula la pulsación de botones. Aquí veremos brevemente cómo funcionan estos dispositivos.


Existen varias tecnologías para implementar los sistemas táctiles, cada una basada en diferentes fenómenos y con distintas aplicaciones. Los sistemas táctiles más importantes son:
• Pantallas táctiles por infrarrojos
• Pantallas táctiles resistivas
• Pantallas táctiles y touchpad capacitivos
• Pantallas táctiles de onda acústica superficial, (SAW)

Infrarrojos

El sistema más antiguo y fácil de entender es el sistema de infrarrojos. En los bordes de la pantalla, en la carcasa de la misma, existen unos emisores y receptores de infrarrojos. En un lado de la pantalla están los emisores y en el contrario los receptores. Tenemos una matriz de rayos infrarrojos vertical y horizontal. Al pulsar con el dedo o con cualquier objeto, sobre la pantalla interrumpimos un haz infrarrojo vertical y otro horizontal. El ordenador detecta que rayos han sido interrumpidos, conoce de este modo dónde hemos pulsado y actúa en consecuencia.
Este sistema tiene la ventaja de la simplicidad y de no oscurecer la pantalla, pero tiene claras desventajas: son voluminosas, muy sensibles a la suciedad y pueden detectar fácilmente falsas pulsaciones (una mosca que se pose, por ejemplo).

Pantallas táctiles resistivas

Es un tipo de pantallas táctiles muy usado. La pantalla táctil propiamente dicha está formada por dos capas de material conductor transparente, con una cierta resistencia a la corriente eléctrica, y con una separación entre las dos capas. Cuando se toca la capa exterior se produce un contacto entre las dos capas conductoras. Un sistema electrónico detecta el contacto y midiendo la resistencia puede calcular el punto de contacto.
Hay varios tipos de pantallas resistivas según el número de hilos conductores que usan, entre cuatro y ocho. Todas se basan en el mismo sistema. Veamos detenidamente el proceso.

Cada capa conductora tratada con un material conductor resistivo transparente, normalmente óxido de indio y estaño (In2O3)9(SnO2), tiene una barra conductora en dos lados opuestos como en la figura. Una de las capas sirve para medir la posición en el eje X y la otra en el eje Y.
• Conectamos la entrada X+ a un convertidor analógico-digital. Ponemos una tensión entre los terminales Y+ Y- El convertidor analógico-digital digitaliza la tensión analógica generada al pulsar sobre la pantalla. Un microprocesador medirá esta tensión y calculará la coordenada "X" del punto de contacto.
• Después conectamos al convertidor analógico-digital el terminal Y+ y una tensión continua entre los terminales X+ y X- y repetimos el mismo proceso para calcular la coordenada "Y" del punto de contacto.
En algunos tipos de pantalla se puede medir además la coordenada Z o presión que se ha ejercido sobre la pantalla táctil. Para esto hay que conocer la resistencia de cada "plato". Para este tipo de medidas más complejas se necesitan más terminales para calibrar la pantalla, ya que la resistencia de los "platos" varía con la temperatura ambiente.
Las pantallas táctiles resistivas tienen la ventaja de que pueden ser usadas con cualquier objeto, un dedo, un lápiz, un dedo con guantes, etc. Son económicas, fiables y versátiles. Por el contrario al usar varias capas de material transparente sobre la propia pantalla, se pierde bastante luminosidad. Por otro lado el tratamiento conductor de la pantalla táctil es sensible a la luz ultravioleta, de tal forma que con el tiempo se degrada y pierde flexibilidad y transparencia.

"Touchpad" capacitivos

Son los utilizados normalmente en los ordenadores portátiles para suplir al ratón. El touchpad está formado por una rejilla de dos capas de tiras de electrodos, una vertical y otra horizontal, separadas por un aislante y conectadas a un sofisticado circuito. El circuito se encarga de medir la capacidad mutua entre cada electrodo vertical y cada electrodo horizontal. Un dedo situado cerca de la intersección de dos electrodos modifica la capacidad mutua entre ellos al modificarse las propiedades dieléctricas de su entorno. El dedo tiene unas propiedades dieléctricas muy diferentes a las del aire.
La posición del dedo se calcula con precisión basándose en las variaciones de la capacidad mutua en varios puntos hasta determinar el centroide de la superficie de contacto. La resolución de este sistema es impresionante, hasta 1/40 mm. Además se puede medir también la presión que se hace con el dedo. No se pueden usar lápices u otros materiales no conductores como punteros. Es muy resistente al entorno, soporta perfectamente polvo, humedad, electricidad estática, etc. Además es ligero, fino y puede ser flexible o transparente.

Pantallas táctiles capacitivas

En estas pantallas se añade una capa conductora al cristal del propio tubo. Se aplica una tensión en cada una de las cuatro esquinas de la pantalla. Una capa que almacena cargas se sitúa sobre el cristal del monitor. Cuando un usuario toca el monitor algunas cargas se transfieren al usuario, de tal forma que la carga en la capa capacitiva se decrementa. Este decrecimiento se mide en los circuitos situados en cada esquina del monitor. El ordenador calcula, por la diferencia de carga entre cada esquina, el sitio concreto donde se tocó y envía la información al software de control de la pantalla táctil. La principal ventaja de este sistema es que, al tener menos capas sobre el monitor, la visibilidad de la pantalla mejora y la imagen se ve más clara.

Pantallas táctiles de onda acústica superficial (SAW).

A través de la superficie del cristal se transmiten dos ondas acústicas inaudibles para el hombre. Una de las hondas se transmite horizontalmente y la otra verticalmente. Cada onda se dispersa por la superficie de la pantalla rebotando en unos reflectores acústicos.

Las ondas acústicas no se transmiten de forma continua, sino por trenes de impulsos. Dos detectores reciben las ondas, uno por cada eje. Se conoce el tiempo de propagación de cada onda acústica en cada trayecto. Cuando el usuario toca con su dedo en la superficie de la pantalla, el dedo absorbe una parte de la potencia acústica, atenuando la energía de la onda. El circuito controlador mide el momento en que recibe una onda atenuada y determina las coordenadas del punto de contacto.
Además de las coordenadas X e Y, la tecnología SAW es capaz de detectar el eje Z, la profundidad, o la presión aproximada que se ha ejercido con el dedo, puesto que la atenuación será mayor cuanta más presión se ejerza.

Continuar leyendo

Todo sobre el inicio del sistema

Yordan [truano@infomed.sld.cu]

En ocasiones anteriores se han tocado temas relacionados con el inicio de un PC, por ejemplo hace poco salió un artículo muy bueno sobre los beeps de error y como identificarlos, pensemos en este artículo como un todo incluido, hoy aprenderemos como y por que se ejecuta cada comando en el booteo del sistema, así como también aprenderemos a identificar algunos códigos de error, además de los ya mencionados beeps.

El proceso que ocurre en un PC desde el momento en que presionamos el botón de encendido hasta que finaliza de cargar el SO (Sistema Operativo), se denomina “Arranque” o “Booteo”, es un proceso complicado donde se realiza una secuencia lógica y ordenada, aprender cada paso de este proceso nos ayudará a comprender lo que pasa en él y a prevenir cualquier tipo de problemas tales como los pantallazos azules, bloqueos de sistema, o mensajes de error, incluso hasta la perdida de archivos importantes para el inicio del SO.

1ra parte: Encendido del PC.

Cuando presionamos el botón de arranque de nuestro PC, se restaura un registro de la CPU, se le indica la dirección de la siguiente instrucción a procesar, la dirección es el comienzo de un programa de arranque residente en la dirección F000 de un conjunto de chips de memoria de solo lectura (ROM) que contiene el sistema básico de entrada/salida (BIOS – Basic In/Out Sistem) del PC, al mismo tiempo se llama a una serie de comprobaciones automáticas de encendido llamada POST (Power On Self Test).

Las pruebas se basan en un sistema de autocomprobación de los dispositivos conectados a los Buses, Puertos y Slots de la PC, el proceso POST chequea la memoria del adaptador de pantalla y las señales de video que estas controlan, entonces se controlan el código de la BIOS del adaptador en una parte de la BIOS global del sistema, es ahí donde por primera vez aparece algo en nuestro monitor, para todos aquellos que tienen tarjeta de video se habrán dado cuenta que lo primero que muestra el inicio del PC son los datos de nuestra tarjeta de video, a continuación se ejecutan unas pruebas para garantizar que la Memoria RAM se ejecuta correctamente, el CPU escribe datos en cada chip de memoria y acto seguido los comprueba, en esos momentos el monitor nos muestra un conteo de la memoria que va siendo analizada, se comprueba la correcta conexión del teclado, podemos percatarnos de esto porque se encienden los led de nuestro teclado, luego de esto se mandan paquetes de datos a través de los buses, si no se recibiera respuesta se notificaría a través de un mensaje de error en pantalla o en forma de beeps, hasta aquí el POST, lo que continúa es la búsqueda de un SO, ya sea en Disco Duro u otro tipo de soporte como CD, DVD, Memoria Flash, etc.

2da parte: El Sistema Operativo (SO).

Un PC es del todo inútil sin la existencia de un SO, que no es mas que un programa encargado de administrar todos los recursos de nuestro PC y a la ves nos sirve como base sobre la cual ejecutar otros software con los que a diario trabajamos, ejemplos de SO (Windows, Unix, Linux, MacOs, MS-DOS), al ejecutar el SO este se carga en la memoria de acceso aleatorio (RAM) este proceso comienza por una serie de códigos indispensables luego se procede a la lectura de los archivos del sistema operativo y a su posterior carga en la memoria RAM.

3ra parte: El Arranque desde el Disco.

Completada la función del POST y comenzada la carga en memoria de los archivos del sistema, se pasa a la búsqueda de la unidad contenedora del SO en cuestión, en este momento cada PC funciona de forma diferente, ya que los procesos y archivos a cargar dependen totalmente del SO que tengan instalados, el arranque en Windows 95/98 depende principalmente de 5 archivos, el primero en actuar es el “io.sys” con el que se carga la memoria RAM, tras esto se iniciará una nueva rutina llamada SYSINIT la cual gestiona el resto del arranque, bajo esta rutina se carga en memoria el archivo “msdos.sys” en este momento el ordenador ya se encuentra bajo el control de un SO (MS-DOS), y este comienza a ejecutar los comandos de los ficheros “config.sys”, “command.com” y finalmente “autoexec.bat”, estos mismos procesos en Windows XP o Windows basados en tecnología NT, necesitan los archivos “ntldr”, “ntdetect.com” y “boot.ini”, los dos primeros no son específicos de cada PC, es decir en caso de que falten se pueden copiar de un PC a otro, el tercero si es único, ya que hará de menú de booteo en caso de que tengamos mas de un sistema operativo instalado en la PC, luego de la carga de estos archivos en la memoria el proceso de arranque desde el disco se habrá completado y la PC estará lista para ser usada.

4ta parte: Sistema de Errores en el Inicio.

Lo primero a tratar en esta etapa serían los beeps o pitidos de error, no son mas que los mensajes de error que nos da el BIOS cuando la PC aun no ha entrado en modo grafico, tocar este tema en el articulo sería un poco inapropiado o falto de ética, si tenemos en cuenta que mi colega NigthRiders escribió un buen artículo al respecto en la edición 52, así que solo vamos a concentrarnos en los errores visuales, o mejor dicho los errores que el BIOS logra presentarnos visualmente, debido a la infinidad de errores que cada dispositivo puede llegar a presentar, se hace imposible que todos se puedan presentar de forma sonora a modo de beeps, por lo tanto la parte sonora solo se usa para aquellos errores que ocurren antes de cargar el entorno grafico, después de que se haga el chequeo de la tarjeta grafica y comience a trabajar ya el BIOS nos brinda los mensajes en modo texto, dichos mensajes nos son presentados por un código numérico seguido de alguna explicación (normalmente en ingles), la leyenda para interpretar dichos códigos es la siguiente.

1xx – Fallos en la Motherboard. (Entiéndase xx por números entre 01 y 99)
2xx – Fallos en la Memoria RAM.
3xx – Fallos en el Teclado.
4xx – Fallos en la Tarjeta de Video MDA (Monocromática)
5xx – Fallos en la Tarjeta de Video CGA.
6xx – Fallos en la Unidad de Disco o su controlador.
9xx – Fallos en el Puerto Paralelo LPT1.
10xx – Fallos en el Puerto Paralelo LPT2.
11xx – Fallos en el Puerto Serie COM1.
12xx – Fallos en el Puerto Serie COM2.
13xx – Fallos en el Puerto para Joystick.
14xx – Fallos en la Impresora.
17xx - Fallos en el Disco Duro o su controlador.
18xx – Fallos en las Tarjetas de Expansión.
24xx – Fallos en la Tarjeta de Video EGA.
73xx – Fallos en Disco Extraíble de 3 ½ “ (Floppy).
74xx – Fallos en la Tarjeta de Video VGA.
104xx – Fallos en Controladores PS/2.

Continuar leyendo

¿Qué es la Web 2.0?

Chacal [mariav.hedez@infomed.sld.cu]

La Web 2.0 se refiere a una nueva generación de Webs basadas en la creación de contenidos producidos y compartidos por los propios usuarios del portal.


En la Web 2.0 los consumidores de información se han convertido en “pro-consumidores”, es decir, en productores de la información que ellos mismos consumen.

La Web 2.0 ha generado una ampliación de la cola larga de los contenidos hacia la demanda de información de nicho, originando una mayor inversión de publicidad segmentada en Internet.

Posiblemente hayan escuchado en los últimos meses la expresión Web 2.0 o expresiones tales como redes sociales, microformatos, tags, sindicación, RSS, MySpace, Technorati, Wikipedia, Digg, Facebook, Flickr, YouTube, Del.icio.us, etc. Si es así, le recomiendo analizar el origen estratégico de todas estas expresiones
que representan aplicaciones y elementos de la Web 2.0.

La Web 2.0 se refiere a una nueva generación de Webs basadas en la creación de páginas Web donde los contenidos son compartidos y producidos por los propios usuarios del portal. El término Web 2.0 se utilizó por primera vez en el año 2004 cuando Dale Dougherty de O’Reilly Media utilizó este término en una conferencia en la que hablaba del renacimiento y evolución de la Web.

Si hay una Web 2.0 necesariamente debe existir una Web 1.0 de donde evoluciona la primera. La Web 1.0 es la Web tradicional que todos conocemos y que se caracteriza porque el contenido e información de un site es producido por un editor o Webmaster para luego ser consumido por los visitantes de este site. En el modelo de la Web 2.0 la información y contenidos se producen directa o indirectamente por los usuarios del sitio Web y adicionalmente es compartida por varios portales Web de estas características.

En la Web 2.0 los consumidores de información se han convertido en “prosumidores”, es decir, en productores de la información que ellos mismos consumen. La Web 2.0 pone a disposición de millones de personas herramientas y plataformas de fácil uso para la publicación de información en la red. Al día de hoy cualquiera tiene la capacidad de crear un blog o bitácora y publicar sus artículos de opinión, fotos, vídeos, archivos de audio, etc. y compartirlos con otros portales e internautas.

Tecnologías en la Web 2.0

La infraestructura de la Web 2.0 está relacionada con nuevas tecnologías que han hecho que sea más fácil publicar información y compartirla con otros sitios Web. Por un lado se han actualizado los sistemas de gestores de contenido (Content Management Systems, CMS) haciendo que cualquier persona que no sepa nada sobre programación Web pueda, por ejemplo, gestionar su propio blog. Por otro lado la tecnología de la Web 2.0 ha evolucionado hasta crear microformatos estandarizados para compartir automáticamente la información de otros sitios Web. Un ejemplo conocido es la sindicación de contenidos bajo el formato RSS (Really Simple Syndication) que nos permite acceder a fuentes de información (feeds) publicadas en otros portales de forma rápida y sencilla.

La Wikipedia: Máximo ejemplo de la Web 2.0

En enero de 2001, un próspero corredor de Bolsa llamado Jimmy Wales se propuso crear una gran enciclopedia en Internet a través del conocimiento colectivo de millones de personas aficionadas y con conocimientos de algún tema. Esta enciclopedia sería de acceso gratuito y creada por todos los usuarios que quisieran contribuir. Wales empezó con varias docenas de artículos y un programa informático llamado “Wiki” (palabra hawaiana que significa “rápido”), Con este programa los usuarios podían añadir, modificar y borrar los artículos escritos y publicados.

El modelo de la Wikipedia copia la filosofía de la Web 2.0. En lugar de que un autor erudito o un grupo de expertos escriban todos los contenidos del portal, la Wikipedia recurre a miles de personas de todo tipo, que van desde los verdaderos expertos hasta los lectores interesados, con una gran cantidad de supervisores voluntarios que aprueban y vigilan las “entradas” o artículos ingresados.

En 2001, la idea parecía descabellada, pero al día de hoy la Wikipedia es la enciclopedia más grande del mundo. Wikipedia ofrece más de 1 millón de artículos en inglés creados por más de 20.000 colaboradores y más 280.000 artículos en castellano. Lo mejor de la Wikipedia comparado con las enciclopedias tradicionales de papel, es que la información está actualizada gracias a los aportes de los usuarios que constantemente añaden datos, enlaces a otras fuentes, imágenes, etc. La Wikipedia es una de los portales Web más visitados del planeta y la fuente más citada en la red.

Consecuencias de la Web 2.0

La Web 2.0 ha originado la democratización de los medios haciendo que cualquiera tenga las mismas posibilidades de publicar noticias que un periódico tradicional. Grupos de personas crean blogs que al día de hoy reciben más visitas que las versiones online de muchos periódicos. La Web 2.0 ha reducido considerablemente los costes de difusión de la información. Al día de hoy podemos tener gratuitamente nuestra propia emisora de radio online, nuestro periódico online, nuestro canal de vídeos, etc. Al aumentar la producción de información aumenta la segmentación de la misma, lo que equivale a que los usuarios puedan acceder a contenidos que tradicionalmente no se publican en los medios convencionales.

La cola larga o “long tail” de contenidos se ha ampliado considerablemente con la evolución a la Web 2.0. El hecho de que cada usuario pueda acceder a la información segmentada que le interesa ha hecho que los medios de comunicación tradicionales como la televisión, radio y prensa hayan perdido protagonismo. Se ha generado una migración de los medios tradicionales a Internet. Eso trae como consecuencia que la inversión en publicidad en Internet haya aumentado considerablemente en los últimos años. En cuanto a efectividad de la publicidad, la Web 2.0 ha mejorado el marketing viral o el marketing de boca a boca. Una opinión sobre un producto en un blog o un agregador de noticias puede ser visto, transmitido y compartido por miles de usuarios en la red. Cuando pretenda promocionar su sitio Web piense en primer lugar que postura está tomando con respecto a la Web 2.0. Su empresa está aprovechando las nuevas oportunidades que ofrece la Web 2.0 o se limitará a verlas pasar pensando que será una moda pasajera más en Internet.

Continuar leyendo

Realidad o Ficción

Alien [blackhat4all@gmail.com]

De seguro todos o casi todos tuvieron la oportunidad de ver como en la serie Prison Break que estamos re-disfrutando en la televisión, una de las formas que se utilizaron para descifrar los planes de Michael fue recuperar de un rio el disco duro que este personaje había lanzado luego de tener en su mente y cuerpo todas las cosas necesarias.

En otras oportunidades quizás hayan visto como en series, películas u otras filmografías y hasta documentos, grandes e importantes informaciones son recuperadas a partir de unidades de almacenamiento que se dan por defectuosas, y lo que muchos se estarían preguntando desde hace tiempo es si esto es o no cierto.

Sin miedo a equivocaciones les puedo asegurar que si. Gran parte de la información que borramos de la computadora permanece ahí aún luego de formatear la unidad.

Por supuesto, esto no es tan así como a veces exagera la industria cinematográfica. No he hecho la prueba, ni pienso que algún día tenga los recursos suficientes para hacerla, pero no creo posible que un CD que ha sido picado a la mitad, quemado, pisoteado y luego rallado con una lija, pueda ser unido con algún diluyente y luego leer los datos que este contenía.

¿Cómo funciona?

En pasadas ediciones hemos hablado sobre como se escriben los datos en el disco duro, sobre como funcionan las cabezas magnèticas de una unidad fija y sobre como se distribuye la información en nuestras particiones. Pero al parecer todavìa existen personas a las que estas cosas nole quedaron claras y piensan que pueden eliminar todos sus correos con tan solo borrarlos del gestor de correos o que, ante una inspección pueden salir ilesos con tan solo mandar esa foto comprometedora a la papelera de reciclaje o más allá.

Cuando se graba algo en un disco duro, lo que se hace es darle un valor determinado a una seria de pequeñísimas secciones de la unidad. Cuando se borra, lo que se hace es eliminar la cabecera del archivo, de esa forma no se podrá encontrar donde empieza. Sin embargo, varios programas ya son capaces de hacer un recorrido por toda la unidad y encontrar archivos perdidos, hayan o no sido eliminados.

Cada día que pasa, como mismo nos superamos nosotros, se van superando los inspectores, el personal que se encarga de controlar las máquinas, en fin, todos los responsables de velar por la seguridad informática de un centro. Y aunque en algunas peliculas vemos que de 1 Mb recuperado de una unidad se obtiene hasta la fecha de compra del ordenador, no debemos pensar que todo es tan fácil, pero tampoco tan difícil.

Existen varios y cada vez mejores programas de recuperación que son capaces de mostrar el contenido de un disco luego de haberlo vaciado por completo, incluso luego de haber formateado, pero como si esto fuera poco, se puede hasta recuperar un sistema de archivos por completo.

La informática avanza a pasos agigantados, los desarrolladores de software por cuenta propia así como los que lo hacen desde empresas o corporaciones, prestan un cada vez mayor interés por la seguridad e integridad de los datos. En este caso nuestro país no es una ecepción. Hasta hace poco tiempo la seguridad de las redes y sistemas informáticos era bastante baja pero, desde hace algun tiempo la palabra forense para referirse a terminos informaticos ya no nos es tan extraña.

Con el creciente desarrollo de la informática, y el cada vez mayor conocimiento de nuestro pueblo, se ha hecho casi imprescindible elevar mucho más el conocimiento del personal que está destinado controlar todo lo que se tramita entre ordenadores así como lo que se almacena en los mismos.

No es ficción que un disco duro nos revele datos que a nuestro entender estaban eliminados hace meses. No es ficción que alguien se cuele en nuestro ordenador y sea capaz de leernos el correo, ver nuestros archivos e incluso modificar cualquier información. No es ficción que sean capaces de, mediante un simple nombre, dirección de correo o centro de trabajo, alguien nos conozca mucho más de lo que esperamos. Pero eso, eso lo dejamos para la próxima edición.

Continuar leyendo

En nombre de Tor

JKS [jksware@gmail.com]

¿Cuántos no hemos querido tener en algún momento un mensajero confiable que se ocupe de nuestros asuntos más privados? Digamos que esto se puede hacer en Internet. Conectémonos. Intercambiemos información. Que todo sea privado. Lo hacemos en nombre de Tor.

LA NOVELA

Digamos que un usuario, al cual de ahora en adelante llamaremos familiarmente “greyhat”, se encuentra en un lugar imaginario donde puede tener acceso un servidor proxy benévolo. Con “servidor proxy benévolo”, me refiero a un servidor cuyo filtro de contenidos e IPs deje pasar a todos los paquetes excepto a algunos cuantos, provenientes de “fuentes conocidas” – o como se dice en el lenguaje interno, que estén en una lista negra. Dicho servidor – también imaginario – le sirve a greyhat para, quizá, divagar de una página en otra, sin dar por expuesta una afiliación a un grupo determinado o simplemente hacer una búsqueda de ciertos keywords en Google que ofendan la razón de algunos. Ahora imaginemos que dicho proxy deja que otras ciertas personas – que comparten nuestro servidor con greyhat – vean a qué nuestro usuario se ha dedicando las últimas horas. Dicha información se encuentra disponible para todos los demás usuarios de la red – y cuando hablo de todos, digo TODOS – con el simple hecho de saberse un determinado IP, que nos remitirá al servidor proxy en cuestión. Nuestro proxy imaginario está corriendo un servicio adicional que monta un pequeño servidor http en el cual se puede distinguir, con fecha y hora, a qué se ha dedicado usuario por usuario en el día, a qué sitios ha entrado por orden de cantidad de kb descargados, y cuántas veces ha entrado. Nuestro proxy tiene la mala costumbre de publicar las “trazas” de sus usuarios.

Si, sólo por casualidad, nuestro conejillo de indias greyhat ha entrado – por mencionar algún ejemplo, y no por que así sea – a determinadas páginas y servicios que por contener información que no es almacenada en un servidor nacional han sido “banneados”, y que además, como si no fuera poco, sirven a greyhat para comunicarse con alguno que otros pariente y tener acceso a ciertos servicios malévolos, como uno – del cual no recuerdo el nombre – que permite escribir caracteres a una persona y tener una respuesta – también textual – de la misma instantáneamente. ¡Ah!, y una nueva versión del servicio del cual hablo también permite que greyhat, al cual ahora dotamos de una webcam, desafíe las leyes físicas al poder ver reflejados en su monitor a ese “pariente lejano” que se encuentra en tierras más firmes. Pero nuestro amigo greyhat es un poco tímido, y no quiere que sus colegas de trabajo se enteren de que está “intercambiando información” con un posible agente, el cual muy probablemente saboteará sus instalaciones o les enviará un temible virus. Ambos, greyhat y yo, sabemos que esto no sucederá, y que el establecer comunicación entre parientes no es más que un derecho propio.

En determinado momento, una persona cuyo trabajo consiste en saber que hacen los demás, y que llamaré whitehat, y que suele navegar por páginas de reportes como las del proxy imaginario – al cual hice referencia anteriormente – descubre que un usuario “Top 100” en la lista de los que más han bajado por este proxy, está accediendo habitualmente a un servicio de la categoría anterior. Dicho sea de paso, nuestro “Top 100” es greyhat accediendo por la cuenta que encontró tirada, prácticamente sin usar de un “colega”, y cuya contraseña recuperó por medio de una utilidad que recoge los teclazos que se dejan en un puesto de trabajo. Dicho puesto de trabajo contiene una tarjeta de red que posee un número de identificación irremplazable, que se relaciona con una IP determinada en la red local, y que a la vez se relaciona con dicha estación de trabajo de manera inequívoca. Greyhat se encuentra en una encrucijada, no sabe si seguir en el “intercambio cultural de información” y poder ser relacionado con un IP y máquina determinada, y pasar por la humillación de ser dejado sin cuenta y sin trabajo por el cual navegar inocentemente, o si dejar a un lado toda comunicación y concentrarse, pues bueno, en todos los temas que no lleven interferencia humana de la Web 2.0, o sea, ninguno.

EL AMIGO

Todo lo anterior no es más que una mera especulación y nuestro amigo greyhat no estaría, bajo condiciones normales, a seguir en dicho “intercambio”, de no ser por conocer a un individuo, al cual – nuevamente es casualidad – llamaremos blackhat, el cual le proporciona alguna que otra información útil acerca de cómo enviar y recibir paquetes de información por medio del servidor proxy y pasar desapercibido, o lo que es mejor, no dejar se generen compilaciones del tipo de “¿a qué sitio te gusta acceder más?”.

LAS REDES

Blackhat, el nuevo amigo de greyhat, le dice que existen unos servidores en el mundo, los cuales cuentan con accesos de alta velocidad y plena capacidad de internet, que se dedican a servir de intermediarios con nuestros primos proxiados de universidades extranjeras para que estos puedan ver videos de YouTube y entrar a redes sociales como Facebook. Dichos servidores abundan por su uso y llevan un nombre bastante parecido a sus primos más tacaños: son los webproxies. Un webproxy, según cuenta blackhat, puede extraer información del tipo http – o sea, en formato de página web y alguno que otro también de ftp – de otro servidor y ponerla como suya propia, todo por medio de su dirección URL, con lo que salta a muchas categorías de proxies que restringen según palabras claves en los URL.

Con uno de estos webproxy, nuestro amigo greyhat pudo acceder a páginas que por su contenido se encontraban fuera de su alcance, como lo eran earth.google.com, con el que pudo ver las fotos de su ciudad natal. Incluso accedió a cracks.ms, sin el inconveniente de que a cada rato le saltara un pop-up con chicas desnudas bailando en un escritorio de Windows. Greyhat se quedó maravillado con este servicio, aunque pedía por más, quería poder tener a sus anchas palabras malditas como IRC, Jabber, Google Talk y Yahoo! Messenger.

LOS PAQUETES

Se le podía ver llorar de alegría a Greyhat con su “nuevo descubrimiento”. Descubrió, sin más, qué era una cebolla. Estaba tan ansioso que se le olvidó contar a otros amigos que se trata de una red que transmite contenidos encriptados por medio de varias computadoras a través de internet, sólo que estos paquetes se transmiten de forma muy especial.

Los paquetes de datos comunes, que se transmiten de una IP a otros – según le dijo blackhat –contienen además de la información que transportan – como una petición de http, parte de un encabezado de correo electrónico o un infinitesimal pedazo de una fotografía – las direcciones de las tarjetas de red y de las IP de salida y destino, de las cuales sale y está destinado a llegar. Estos paquetes en la red de redes constituyen la vía principal de información, como aquel que dijera, son los glóbulos rojos del internet, ya que en vez de transportar oxígeno en la sangre, transportan todo tipo de datos binarios entre una máquina y otra. Si se cuenta con las herramientas necesarias, otro usuario como blackhat podría saber qué son y a dónde se dirigen dichos paquetes. Pero a blackhat, sin embargo, no le interesa saber tanto qué hacen los demás, al menos, no le interesa más que a whitehat, que se dedica únicamente a “trabajos de inspección y asesoría”.
¿Y qué sucede si whitehat es el administrador de este servidor proxy ficticio? Puede tener acceso a toda la información de sus usuarios. Es más, puede configurar el servidor para que cada vez que dichos paquetes que estén marcados con un contenido especial – como un video o se dirijan por un puerto extraño – pregunten al proxy por determinada máquina dentro de su red, este los devore por completo y no se lo notifique a nadie, lo cual es aún peor. Nos encontramos ante el típico caso de un “proxy devorador de paquetes”, tal cual salido de un cuento de los tres cerditos.

LA CEBOLLA

Lo que blackhat le dijo a nuestro amigo greyhat, es que, con los instrumentos y configuraciones adecuados en su puesto de trabajo, podría, si tenía la suerte suficiente, pertenecer a una red gigante que comparte información. Si una vez perteneciendo a la red, la tarjeta de red de nuestro amigo greyhat, quisiera decirle algo a otra tarjeta de red de un servidor web, todo lo que tenía que hacer era pedírselo a sus mensajeros. Como una red secreta, estos mensajeros no se conocen entre sí. Ellos no saben cuáles son sus nombres, solo tienen un número de identificación.

Por ejemplo, si greyhat que está en el punto A, quiere pedir una información del servidor B, este se lo manda a pedir a su proxy P, mediante un paquete que está destinado “aparentemente” a la máquina X. Pero cuando el paquete llega a la máquina X – y llega ya que no se encuentra “banneada” por el proxy P – esta le retransmite el paquete a la máquina Y, y esta a su vez a la Z. Finalmente la Z es la cara de greyhat en el punto A al servidor B. Para todos los usos y casos, el servidor B sólo conoce que la máquina Z le pidió una información. Para él no existen A, P, X ni Y, sólo Z. Por lo que le contestará a Z debidamente con la información que esta le pidió. Esta información, que como es de esperar está dividida también en diminutos paquetes, se transmite por la misma vía en sentido opuesto. Aclarar que X no conoce a Z, sólo a Y, y viceversa. Sólo se conocen las máquinas que se encuentran “cerca” de otras.

Aunque whitehat quisiera, y por más que se esforzara, este no encontrará manera de penetrar la “confidencialidad” dentro de la red cebolla, que es, se me había olvidado mencionar, como se llama en español a este tipo de redes, redes Tor.

TODOS SOMOS IGUALES

Tampoco logrará whitehat discriminar a los paquetes que se dirijan por medios de las redes Tor por su estatura, color o género. Los paquetes que se traspasan de “mano en mano” a través de estas redes son todos iguales, y están perfectamente “desfigurados”, para no parecer ni remotamente a un elemento reconocible, y por tanto, no son “filtrables” por nuestro astuto administrado del ficticio proxy. Tampoco lo logrará hacer por su dirección de salida o destino, ya que será también aleatoria, entre los muchos servidores Tor del mundo, y por tanto tampoco discriminable. La única posible solución a nuestro administrador, aparte de perder su trabajo por incompetente, sería eliminar toda “bondad” del proxy imaginario, dejándolo solamente con direcciones y puertos confinados a unos pocos, pero él no quiere que esto pase, ya que dejaría sin la verdadera navegación a muchos que dependen de su mal que bueno trabajo.

Entonces al final nuestro amigo greyhat ha quedado complacido con esta nueva “capacidad” de su ordenador de “comunicarse” con otros. Ahora greyhat puede entrar a sitios que digan mail en su URL, o que mencionen news, rss feed, y otras palabras dignas de discriminación en eras de la Santa Inquisición.

Nuestro amigo reza diariamente con su navegador, para que por medio de todos los ángeles y arcángeles, le permitan acceder a los envidiados servicios de mensajería y noticias. Es más, podrá hasta postear en Blogger o crear su propio video en YouTube. Quizá, cuando tenga tiempo, cree su página de descargas o acceda a algún torrent, o nos revele como hizo para configurar lo que blackhat le dijo. Lo hará todo en nombre de Tor.

Continuar leyendo