Monografias.com > Estudio Social
Descargar Imprimir Comentar Ver trabajos relacionados

La web como ecosistema virtuoso/vicioso



     

     

    ABSTRACT

    A pesar de su crecimiento azaroso la web posee
    regularidades subyacentes sorprendentes. Ya se trate de la
    organización de los links o de los patrones de
    comportamiento
    de sus casi mil millones de usuarios. Muchas de estas
    regularidades han sido anticipadas por la mecánica estadística, una de las ramas de la
    física. Si
    estas metáforas son válidas será posible
    diseñar en forma más eficiente el uso de la
    red. Pero
    también se comprobará que hay leyes de la forma
    o de la organización que se aplican a las estructuras
    mas variadas (trátese de átomos o de infoagentes).
    Vista de este modo la web es un ecosistema informacional
    gigantesco
    que puede ser utilizado como laboratorio
    físico (y metafísico) para testear el comportamiento
    humano y la interacción social. Porque contrariamente a
    nuestras expectativas –y a pesar de su enorme
    tamaño– la red exhibe regularidades y patrones, y si
    bien los buscadores son
    ciegos a una parte significativa de la misma, ello no impide
    imaginar usos mas inteligentes de recuperación de los
    datos
    así como la creación de nuevos formatos y
    narrativas que la utilicen y la reinventen de una forma mucho mas
    inteligente y apropiada que lo que hemos podido/sabido hacer
    hasta ahora.

    A pesar de su crecimiento azaroso la web posee
    regularidades subyacentes sorprendentes. Ya se trate de la
    organización de los links o de los patrones de
    comportamiento de sus casi mil millones de usuarios. Muchas de
    estas regularidades han sido anticipadas por la mecánica estadística, una de las
    ramas de la física. Si estas metáforas son
    válidas será posible diseñar en forma
    más eficiente el uso de la red. Pero también se
    comprobará que hay leyes de la forma o de la
    organización que se aplican a las estructuras mas variadas
    (trátese de átomos o de infoagentes). Vista de este
    modo la web es un ecosistema informacional gigantesco que
    puede ser utilizado como laboratorio físico (y
    metafísico) para testear el comportamiento humano y la
    interacción social. Porque contrariamente a nuestras
    expectativas –y a pesar de su enorme tamaño–
    la red exhibe regularidades y patrones, y si bien los buscadores
    son ciegos a una parte significativa de la misma, ello no impide
    imaginar usos mas inteligentes de recuperación de los
    datos así como la creación de nuevos formatos y
    narrativas que la utilicen y la reinventen de una forma mucho mas
    inteligente y apropiada que lo que hemos podido/sabido hacer
    hasta ahora.

     

    ¿Cómo
    empezó todo?

    Los diez años de WEB que hemos sabido
    diseñar, revelan una pantalla convertida en un nuevo
    soporte intelectual
    . Como lo fueron en un momento los
    ejercicios del arte de la memoria de
    los griegos y romanos, la inscripción en piedra o en cera;
    el papiro y el papel y más recientemente los soportes
    electromagnéticos. Lo que sucedió con/en Internet, refugio del
    texto y del
    blanco y negro, que terminó explotando en una paleta de
    nuevas formas expresivas, de textos unidos a la distancia, de
    nuevas y divertidas formas de enseñar, aprender, ver,
    oír, negociar, vender, abusar, entretener y aburrir es lo
    mismo que pasó con el resto de las
    tecnologías.

    Están operando aquí dos principios
    evolutivos de los medios de
    comunicación que estamos desanudando permanentemente.
    El primero es que con cada nuevo avance tecnológico se
    gana mucho y se pierde también bastante. El segundo es que
    los nuevos medios
    generalmente recuperan elementos de la
    comunicación natural (biológica) eclipsados por
    los medios primitivos anteriores (que extendieron la
    comunicación sacrificando algunos de sus beneficios
    naturales, Grusin, & Bolter (2000)).

    Pero es imposible entender estos resultados si antes no
    se entiende qué y cómo se producen. Para ello hay
    que investigar la infraestructura que hace posible el nuevo
    medio, y sobretodo las reglas que regulan su emergencia,
    crecimiento y expansión/declinación
    (1).

    Sólo que Internet con su poder e
    idiosincrasia no es una excepción sino la regla. Se trata
    de una red libre de
    escala (Barabasi,
    2001), donde la interacción de elementos simples
    desprovistos de toda inteligencia
    terminan generando un cerebro y una
    piel globales
    inesperada y superpoderosa. Por ello antes de adentrarnos en la
    red propiamente dicha habrá que examinar una familia de
    palabras entre las que se incluyen: mundos pequeños,
    redología, redes libres de escala,
    regla del 80/20…… que forman su contexto y hacen posible su
    comprensión

    En el caso específico de Internet sus aspectos
    lingüísticos o mediáticos han estado
    sistemáticamente oscurecidos por las narrativas que han
    dominado su intelección, que han oscilado entre el
    tecnicismo, el discurso
    ingenieril y más recientemente –en la ultima
    década– los mitos
    filo–económicos que la habían transformado en
    Rey Midas.

    Con la mínima distancia que nos permite haberla
    recorrido en múltiples direcciones (Piscitelli, 2001;
    2002) y con un escepticismo creciente acerca de su capacidad de
    totalización o de anulación de lecturas
    alternativas, un nuevo recorrido por sus comienzos
    socio–técnicos (que falta nos hace un Latour de la
    red (2)) ayuda a poner las cosas en una perspectiva mas
    moderada y útil.

     

    Los desconocidos de
    siempre

    Cada vez que se habla de los orígenes de Internet
    un personaje mítico reaparece en el relato. Se trata nada
    mas y nada menos que de Paul Baran (Abbate, 1999), quien con sus
    recién cumplidos 30 años aceptó un flamante
    trabajo en la
    Rand Corporation, un think tank creado por el gobierno de USA
    en 1946.

    Corría el lejanísimo 1959 y a Baran le
    ofrecieron un conchabo por demás ambicioso. Diseñar
    un sistema de
    comunicaciones
    que fuera capaz de detener un presunto ataque nuclear
    soviético. Por esa época la Rand estaba demasiado
    asociada a las elucubraciones de personajes como Herman Kahn una
    de cuyas debilidades fue dedicarse a los juegos de
    guerra
    –al mejor estilo del Dr Insólito de Stanley
    Kubrick– calculando la muerte
    eventual de millones de personas como resultado de un ataque
    nuclear.

    A Baran tales elucubraciones no le preocupaban
    demasiado, y con mucho entusiasmo miró hacia otro lado y
    se puso a inventar un sistema de comunicaciones totalmente
    distinto al existente, algo que plasmó publicando una
    serie de 12 volúmenes que harían historia, aunque con unos
    cuantos zig zags en el medio.

    Para Baran la vulnerabilidad de la red de comunicaciones
    existente derivaba obviamente del sistema de control y comando
    sobre la que se basaba en los años 50. Dado que una
    detonación nuclear destruye todo lo que está
    alrededor de la zona de impacto Baran como preservar a otros
    nodos no colindantes de los efectos del ataque.

    Analizando los sistemas
    dominantes en la época encontró tres tipos de
    organizaciones
    de redes a los que denominó centralizado, descentralizado
    y distribuido. Obviamente descartó de un plumazo como
    objeto de elección a las dos primeras configuraciones dado
    el altísimo grado de vulnerabilidad que las mismas
    exhibirían ante un ataque nuclear.

    Para Baran la estructura
    ideal para esos fines habría de ser una red distribuida
    en forma de retícula
    , muy parecida a un sistema de
    autopistas, con tan alto grado de redundancia, que aun cuando
    muchos de los nodos fueran borrados del mapa por un ataque,
    caminos alternativos mantendrían la conexión entre
    el resto de los nodos sobrevivientes.

    Primer punto interesante: los militares le pidieron a
    Baran que diseñara la red alternativa, por lo cual la
    fantasía o mito acerca de
    un origen militar de la red tiene un punto a su favor. Pero lo
    que esta narrativa olvida/oculta es que finalmente los militares
    no le hicieron un ápice de caso a Baran. Es por ello que
    la estructura real de la red tal como la conocemos hoy tiene poco
    y nada que ver con las propuestas concretas de Baran
    –aunque quienes finalmente la diseñaron por ese
    remanido mecanismo de equifinalidad– llegaron a un
    idéntico fin a través de numerosos caminos
    alternativos.

     

    Cuando ser digital fue una
    mala palabra

    Además la oposición de los militares (pero
    también de la industria) a
    las ideas de Baran no se reflejó tan solo en
    filosofías o ideologías incompatibles, sino en un
    hecho mucho mas insoportable a la mentalidad de la época
    –lo que muestra cuanto
    mas fuerte es la resistencia
    económica y/o cultural que la incultura
    técnica.

    A saber que la propuesta de Baran incluía
    descomponer los mensajes en pequeños paquetes de información capaces de viajar
    independientemente uno de los otros en la red. Para lograr este
    (entonces) delirio hacía falta un sistema de comunicación inexistente en ese momento, es
    por ello que Baran abogó por la creación de un
    sistema de comunicación digital.

    Esta demanda
    difícilmente podía ser sostenida o cumplida por el
    monopolio
    telefónico de AT&T que desde la década de 1910
    reinó omnímodo en USA, hasta su desmembramiento en
    1982.

    Por eso el entonces presidente de AT&T, Jack
    Ostermani rechazó de un plumazo la propuesta de Baran,
    sosteniendo que era imposible de lograr, y de que en el caso de
    que llevara a algo, eso implicaría crearle una competencia
    interna a AT&T.

    Las ideas de Baran naufragaron pues ante la
    oposición combinada del pensamiento
    centralizado de los militares y de las prácticas
    monopólicas –no menos centralizadas (3)
    – de la industria, y sólo serían valoradas
    casi una década mas tarde cuando ARPA (Advanced Research
    Project Agency) las desarrollara por su propia cuenta para
    (re)–descubrir imprevistamente, que solo habían
    llegado 10 años mas tarde al mismo lugar. Pero entonces
    todo sería diferente en el escenario internacional y local
    y lo otrora inviable se demostraría ineluctablemente
    necesario.

     

    Modelos alternativos de
    topología y diseño

    Necesitamos entender la topología (la arquitectura
    espacial) de la red si queremos diseñar herramientas,
    y queremos ofrecer servicios que
    corran eficazmente sobre ella. Curiosamente, aunque es un
    producto 100%
    humano, la red no ha sido diseñada en forma centralizada.
    Desde el punto de vista estructural la red se parece mucho
    más a un ecosistema que a un reloj suizo o a cualquier
    otro aparato que haya brotado a partir de un plano y que se haya
    concretado en el espacio físico.

    Es por ello que entender a Internet supone no
    sólo competencias
    ingenieriles o matemáticas –indispensables por otra
    parte– sino sobretodo una comprensión detallada del
    intrincado juego de
    fuerzas políticas,
    económicas sociales y culturales que subyacen en su
    genealogía y devenir.

    Por eso conviene volver al corazón de
    la guerra
    fría. Al durísimo golpe narcisista que supuso
    para los norteamericanos el lanzamiento de la perra Laica (ya sea
    que ésta fuera única o varias como en las mejores
    películas–perros de
    Hollywod) al espacio.

    Como respuesta a esa obscenidad el presidente y general
    Dwight Einsehower (ese del botón I like Ike) creó
    ARPA. A los pocos años –y sobretodo como respuesta a
    la visión del presidente John Fitzgerald Kennedy que a su
    vez creó a la NASA (National Astronautical Space
    Agency)– DARPA se quedó sin credenciales ni objetivos
    –mostrando como la competencia
    inter–burocrática también tiene su dinámica interna y juega un rol
    estratégico en la dinámica de las
    innovaciones.

    Por ello DARPA se convirtió en una usina
    estratégica de proyectos para
    los militares. Y así Internet entró en el radar de
    sus preocupaciones en 1965/1966 cuando Bob Taylor el
    director de los programas de
    computación de ARPA se encontró con
    un agujero negro que consumía millones de dólares
    del presupuesto
    federal.

    En esa época las computadoras
    costaban millones de dólares y Taylor en un día de
    epifanía y revelación se dio cuenta de algo al
    mismo tiempo trivial
    y catastrófico. Las distintas redes de computadoras
    entonces existentes eran incapaces de comunicarse entre si. Es
    mas, dos máquinas
    pertenecientes a distintas redes, cohabitantes en la misma sala
    no eran capaces de hablar entre ellas.

    Divisado el problema se trataba entonces de crearle la
    solución y esta consistiría debidamente en
    algún protocolo capaz
    de interconectar máquinas hasta ese momento mudas o
    competentes exclusivamente en dialectos que nadie era capaz de
    traducir entre si. Con un millón de poderosos y
    sustanciales dólares de la época –al mismo
    tiempo que un grupo de
    investigadores ingleses comandados por Donald Davis del
    laboratorio nacional Ingles de Física redescubría
    las principales ideas y enseñanzas de Baran por su cuenta
    testimoniando el peso de los descubrimientos múltiples uy
    simultáneos – ARPA se puso a trabajar en
    serio.

    En un simposio que tuvo
    lugar en Texas en 1967 estas ideas empezaron a circular
    ampliamente y lo que había sido anatema una década
    atrás se convertiría en la ciencia
    normal de la época. El packet–switching
    devendría el abc de la red y aunque los militares
    intervendrían poco y nada en su desarrollo,
    Internet estaba lista para dar sus primeros pasos.

    Pero no nos perdamos en la historia sino que
    concentrémenos básicamente en la
    topología… actual de la red, así como en tratar
    de desentrañar los principios de crecimiento y de construcción –si es que son
    detectables– que dan cuenta de porque Internet tiene la
    forma actual, en qué se parece ésta a otras redes,
    y qué podemos deducir a partir del conocimiento
    de la topología de la red conducente a una
    anticipación de sus posibles futuros.

    Aunque de Internet hay miles de mapas no existe
    EL MAPA de la red. Lo que si existen son innumerables mapas que
    buscan delinearla o recorrer sus principales configuraciones
    (Dodge, Martin & Kitchin, 2000; 2001).

    Por eso si nos apersonamos en peacockmaps.com
    encontraremos unos impresionantes mapas realizados por Bill
    Cheswick y Hal Burch. Se trata de unos llamativos entramados
    densos en nodos y enlaces que solo tienen como homólogos
    las tomografías computadas o las resonancias nucleares
    magnéticas del cerebro. Con una importante
    distinción, mientras que el cerebro hace milenios que se
    ha estabilizado anatómicamente, la red crece sin parar y
    multiplica diariamente su hiperconectividad y su densidad.

    ¿Porqué es tan importante esta
    cuestión de los mapas? En todo caso resulta sumamente
    sugestivo que siendo el camino que va de la idea al objeto o
    producto invariablemente un proceso que
    comienza con detallados inventarios y
    topografías, partiendo de meticulosos diagramas y
    visualizaciones, Internet esté recorriendo el camino
    inverso.

    Nadie sabe exactamente qué forma tiene la red, y
    por mas que permanentemente se la patrulla y se la fotografía, se la ausculta y se la mide,
    sus contornos son borrosos y sus centros son difícilmente
    localizables y discernibles.

    Esta inmarcesibilidad está profundamente ligada
    al carácter anárquico,
    auto–organizado y fundamentalmente local y distribuido que
    subyace a la evolución de la red.

    Cualquiera –cumpliendo un mínimo de
    requisitos– se "enchufa" a la red. Y si hubiera alguien que
    decidiera cerrar la red (a excepción tal vez de un locura
    insana del gobierno de USA que algún día decidiera
    darse de baja en la red– como lo hizo hace un tiempo
    atrás saliéndose de la UNESCO), lo único que
    lograría es aislar una porción minúscula de
    la misma, pero inmediatamente la información se
    auto–rerutearía y a los efectos prácticos tal
    caída seria invisible o en todo caso
    insignificante.

    Es precisamente la naturaleza
    distribuida, descentralizada y localmente aislada de la red la
    que la vuelve por un lado prácticamente inmune a cualquier
    ataque, pero al mismo tiempo lo que hace tan difícil
    retratarla y aislarla.

     

    Navegando en el mar de los
    sargazos

    Insistimos. Si estamos obsesionados por establecer uno
    (o varios) mapa de la red ello obedece a que el diseño
    de servicios nuevos y mas eficientes requiere obligadamente que
    tengamos un mucho mejor conocimiento de su
    topología.

    Por otra parte cuando Internet se inventó nadie
    imaginó que podría llegar a tener mas de 1
    millón de usuarios, o que sus usos trascenderían
    primero a los militares y luego a los relacionados con la
    investigación. Ni en 1970 ni en 1980 pero
    tampoco en el mucho mas cercano 1990 a nadie se le ocurrió
    jamás que existiría una Internet comercial y mucho
    menos una red de comunicación universal –que
    inclusive llegaría a Marte y que a junio del 2004 tiene
    mas de 800 millones de usuarios.

    Incluso el e–mail –best seller de todas las
    aplicaciones en la red de todos los tiempos– emergió
    en forma inopinada de un travestismo en el uso de la
    transferencia de archivos a manos
    de Rega Tomlinson un empleado de BBN y uno de los inventores de
    la propia red (4).

    Lo mismo está pasando con la web que es uno de
    los mejores ejemplos que podemos mostrar hoy de desastre
    exitoso
    . Es decir de un sistema que escapado de la mesa del
    dibujante, es abrazado entusiastamente por una cantidad
    impresionante de usuarios, antes de que su diseño o
    funcionalidad esté estabilizada, y que de pronto toma al
    mundo por sorpresa y se autoconfigura de un modo al mismo tiempo
    creativo y sumamente ineficiente.

    Porque si Tim Berners–Lee o Robert Caillou
    pudieron haberse imaginado algunas de las consecuencias de lo que
    estaban pergeñando en el CERN al dibujar los primeros
    esbozos de la WWW a fines de la década de 1980,
    seguramente la experiencia de los usuarios hubiese sido
    totalmente distinta y la forma en que hoy usamos la web se
    hubiese modificado acorde.

    Lamentablemente la red tal como existe hoy
    difícilmente se adapte a nuestras necesidades y no es
    casual que la revolución
    de los weblogs haya
    implicado un cambio brutal
    en su uso y su reapropiación por parte de los usuarios
    comunes y silvestres. Si los weblogs son tan exitosos ello se
    debe justamente a las fallas estructurales en la
    concepción y el diseño de la red.

    Nada sorprendentemente mientras que muchos
    investigadores y programadores insisten en crear nuevas
    aplicaciones y servicios, un grupo de memetistas (entre
    los cuales afortunada y orgullosamente nos encontramos) hemos
    empezado a hacernos una pregunta clave: ¿Qué es
    exactamente lo que hemos inventado? ¿Qué tipo de
    criatura hemos liberado en el ciberespacio? y ¿En
    qué puede o nos podemos convertir nosotros a partir de su
    mediamorfosis y evolución? ¿Hasta qué punto
    los hábitos de lectura y
    escritura, que
    sabemos son constitutivos de nuestra identidad y
    subjetividad se verán transformados y modificados por su
    emergencia?

    Porque aunque es un producto 100% humano, Internet tiene
    una vida propia. A poco que la usamos y analizamos exhibe todas
    las propiedades que son específicas de un sistema complejo
    evolutivo, lo que la vuelve mucho más parecida a una
    célula que
    a un chip.

    Es por ello que quienes usamos e investigamos la red
    hemos devenido en tiempo récord de exploradores en
    diseñadores. Todos los internetólogos nos
    asemejamos cada día mas a los biólogos y los a
    ecólogos (de la información) –mas que a los
    físicos y a los matemáticos– que deben lidiar
    con un sistema increíblemente complejo que a todos los
    efectos prácticos nos preexiste y es independiente de
    nosotros.

    Pero si por un lado estamos en muchas mejores
    condiciones que los biólogos para entender a la red,
    porque después de todo nosotros la hemos diseñado,
    y conocemos cada uno y todos los componentes que la conforman,
    por el otro concordamos con los bioanalistas, en que no tenemos
    la mas remota idea de qué pasa (qué tipo de
    estructura es la que emerge) cuando el sistema se pone en
    movimiento y
    se auto–organiza como mejor le place.

    Pero hoy estamos en el 2004 y no en 1997 o en el 2000.
    Porque si antes del 2000 se sabia poco y nada de la
    topología de Internet, a partir del trabajo seminal de los
    hermanos Michalis, Petros y Christos Faloutsos "On
    Power–Law Relationship of the Internet Topology" lo que
    sabemos ahora es que la red de routers que corona Internet es una
    red scale–free (5). Dicho en romance todos
    los modelos de la
    red que imaginaban hasta bien entrado 1999 que ésta
    crecía en forma aleatoria estaban profunda y
    definitivamente equivocados.

    Lo que los hermanos Faloutsos no sabían, empero,
    es que sus investigaciones
    se aplicaban pari passu a la WWW. O lo que es lo mismo, dicho
    nuevamente en romance, que Internet no pertenece a la
    categoría de las redes aleatorias, sino que merece un
    lugar destacado en el zoológico de las topologías scale–free.

    Este descubrimiento no es nada menor o secundario e
    implicó un claro cuestionamiento a la concepción
    tradicional de que las redes físicas y los routers no
    tenían ninguna motivación
    ni inteligencia para desarrollarse según preceptos y
    reglas que valen mucho mas para el caso de las relaciones
    sociales o de la libre elección de jerarquías en la
    páginas que navegamos que para la casualidad y el azar
    propios de sistemas inertes.

    Cualquier inventario o
    análisis de la evolución de la red
    muestra su carácter exponencial como lo podemos
    testimoniar en numerosos gráficos y cuadros (6). Esta
    expansión está literalmente conectada a la
    naturaleza scale–free de la red. Pero esto no alcanza. Para
    entender Internet necesitamos tres principios
    adicionales.

     

    Principios para entender a la
    Red

    Debemos considerar entonces también la
    conexión preferencial (preferential attachment). La
    lógica
    indica que todos deberíamos conectar nuestra computadora al
    router mas
    cercano, después de todo cuanto mas largo sea el cable mas
    nos costará estar conectado.

    Sin embargo tal apreciación intuitiva es
    profundamente errónea. El largo del cable es irrelevante
    cuando del costo de las
    comunicaciones se trata. Porque lo que realmente nos interesa
    cuando nos interesa abaratar la conexión, no es la
    distancia al nodo sino su ancho de banda. Y no siempre es mucho
    mas económico conectarnos con un router cercano pero pobre
    en bits que con uno lejano pero mucho mas rico en
    ellos.

    Esto se traduce en algo evidente, los nodos mas ricos
    (porque proveen mas ancho de banda) son ipso facto los que mas
    conexiones atraen –confirmando un efecto bola de nieve o
    una estructura "el ganador se queda con todo"
    (the–winner–takes–all).

    Pero no alcanza aun con estos dos criterios para
    entender como funciona la red. Porque aunque no sea el criterio
    definitivo, la distancia también importa. 2 km de fibra
    óptica son mas caros que 0.5 km……. Por otra parte
    los nodos no aparecen al azar en los mapas. Hay mas routers donde
    hay mas demanda de ellos, y la demanda es a su vez una propiedad de
    quienes quieren usarlos.

    Además la correlación pertinente es
    aquella que pone en correspondencia la densidad de la población y la densidad de los nodos de
    Internet. Para nuestra infinita sorpresa la distribución de los routers sobre el
    territorio de USA conforma un conjunto fractal (7), esos
    objetos autosimilares descubiertos por Benoit Mandelbrot en los
    años 70.

    Por lo tanto para entender la dinámica de la red
    debemos tener en cuanta estas cuatro dimensiones o variables:
    reconocimiento, conexión preferencial, dependencia de la
    distancia y estructura fractal subyacente.

    Cada una de estas dimensiones si se desbandaran por la
    suya podrían destruir la red. Así si la longitud
    del cable fuera la única consideración a tener en
    cuenta la red podría fácilmente recaer en una
    estructura semejante a la de las autopistas, pero
    increíblemente (¿mágicamente?) las cuatro
    dimensiones interactuan entre si eliminando cualquier posible
    inestabilidad y haciendo posible una Red
    scale–free.

     

    Computación
    parásita y los usos debidos e indebidos de la
    red

    Sin embargo esto no debe hacernos olvidar que tremenda
    labilidad es al mismo tiempo motivo de sorpresa y alegría
    pero simultáneamente una posible condición para el
    eventual colapso de la red.

    Tuvimos un atisbo de caos en el episodio que
    ocurrió el 25 de abril de 1997, a saber la
    catástrofe de MAI Network Services que por error
    convirtió a una configuración defectuosa de routers
    en un agujero negro por el cual se perdió todo el
    tráfico de la red en pocas horas (8).

    Pero ese ejemplo –y hay muchos mas ligados a la
    proliferación de viruses y otras intoxicaciones
    en la red– mostró la vulnerabilidad de la red a la
    propagación de errores u horrores.

    Paul Baran jamás se imaginó que los
    enemigos de la red podrían estar durmiendo en su seno y
    que serían no los rusos sino los hackers o mas
    bien los crackers quienes con una facilidad sorprendente
    podrían liquidar a la red en tiempo récord
    –algo que puede hacerse apropiándose de los routers
    clave en los servidores de
    nombres de raíz (hay 13 en toda la red) (9) que
    orientan todo el tráfico, ya sea lanzando marejadas de
    ataques de denegacion de servicio
    contra los nodos mas activos
    –tal como acontenció en Febrero del 2000 contra
    Yahoo, Amazon, CNN y eBay. Y lo mismo sucedió con el
    gusano Código
    Rojo.

    Pero ¿qué es efectivamente Internet?
    ¿Podría como se le ocurrió a alguien ser una
    computadora –aunque mas no fuera en clave
    metafórica? Es obvio que la red está compuesta por
    computadoras que intercambian páginas y e–mails,
    pero esto por si mismo de ningún modo convierte a la red
    en una super–computadora. A menos que… a menos que se
    pudieran inventar programas, gusanos, troyanos o algún
    tipo de dispositivos de software que tomaran por
    ataque a todas las computadoras del mundo y las hicieran trabajar
    para alguien –ya fuese el profesor
    Neurus o el doctor Zeus?

    Que esta idea no era descabellada pudo comprobarse
    cuando en Agosto del 2001 una nota aparecida en Nature
    publicada por Albert–Lazlo Barabasi y otros autores acerca
    de la computación parásita, fue respondida por
    decenas de miles de mails enviados desde todos los rincones del
    mundo, amenazando a los intrépidos que habían osado
    invadir las máquinas sagradas de la red con represalias
    sin fin.

    Lo que hizo el equipo comandado por Albert
    Lazlo–Barabasi, fue disfrazar simples pedidos de armado de
    páginas, con verdaderas proezas computacionales que le
    eran exigidas a las computadoras host. Cuando una computadora
    recibía un paquete hacia un chequeo rutinario para
    comprobar que el mensaje no se había corrompido en su
    viaje sideral, pero sin saberlo al mismo tiempo estaba
    resolviendo un problema que les interesaba a los investigadores
    usando recursos
    computacionales ajenos –sin que encima los dueños de
    los equipos se dieran cuenta.

    Lo que los investigadores descubrieron era la
    posibilidad de esclavizar máquinas remotas abriendo
    así el abanico a una parafernalia de preguntas y problemas
    computacionales, éticos y legales que ni siquiera hoy
    están bien planteados y mucho menos resueltos.

    ¿Que pasaría si alguien (al estilo de la
    pelicula El hombre en el
    jardín 1
    de Brett Leonard) perfeccionara la
    técnica y pudiera generar un sistema de
    concentración de recursos ajenos a gran escala? ¿De
    quienes son los recursos disponibles en la red que de pronto son
    esclavizados o apropiados por terceros? ¿Seria esto el
    inicio de Internet como supercomputadora? ¿Podría
    emerger un ser consciente e inteligente (al estilo de Skynet en
    Terminator 1 y 2) como resultado de estos
    devaneos?

    De lo que no hay duda es de que en un futuro sumamente
    cercano las computadoras empezarán a intercambiar
    servicios y esfuerzos sobre la base de una demanda ad hoc. Si hoy
    los chips funcionan mucho mas rápido que las redes, en el
    futuro ambas velocidades se equipararán y problemas
    inverosímilmente complejos se resolverán a manos de
    una computadora única o de un grupo de investigadores
    aislado.

    Ya tenemos ejemplos de este tipo discutidos en esa
    excelente obra sobre el par a par compilada por Andy Oram
    Peer–to–peer. Harnessing the power of disruptive
    technologies
    . De hecho experiencias como SETI acudieron a
    este esquema aunque claro en una escala infinitamente menor, pero
    sobretodo pidiendo permiso, algo que Barabasi y sus colegas
    evitaron graciosamente hacer.

    Pero si el procesamiento distribuido fuera una norma una
    infinidad de recursos actualmente disponibles (las horas sino
    semanas o meses que nuestras maquina permanecen conectada al
    ADSL
    indolentemente por ejemplo) podrían servir para
    tamaños y maravillosos fines, sin que nosotros
    debiéramos enterarnos necesariamente.

    Nuevamente las tecnologías van mucho mas
    rápido que nuestra capacidad de investigarlas, analizarlas
    y sobretodo normativizarlas. En el próximo capítulo
    avanzaremos en la aplicabilidad de estas nociones al caso de la
    WWW y sobretodo a la posibilidad –sobre la base del
    descubrimiento de leyes de información en sistemas
    gigantescos– de la posibilidad de rediseñarlos y de
    imaginar su domesticación y/o posibilidad de pliegue a
    nuestras necesidades, aunque éste en realidad pase mucho
    mas por un auto–control que por cualquier
    hetero–regulación.

     

    Bibliografía

    · Abbate,
    Janet Inventing the Internet (Inside Technology),
    Cambridge, The MIT Press, 1999.

    · Barabasi,
    Albert Lazlo Linked The new science of networks. How
    Everything Is Connected to Everything Else and What It Means
    .
    Cambridge. Perseus Publishing, 2002

    · Barabasi,
    Albert Lazlo , Brockman Jay & Vincent Freeh Parasitic
    Computing. http://www.nd.edu/~parasite/

    · Bateson,
    Gregory. Espiritu y naturaleza. Buenos Aires,Amorrortu,
    1993

    · Buchanan,
    Mark Nexus. Small worlds and the grounbreaking theory of
    networks
    . New York, Norton, 2003.

    · Cassidy,
    John Dot.con : How America Lost Its Mind and Money in the
    Internet
    . Perennial Currents, 2003.

    · Cohen, Adam
    The Perfect Store Inside Ebay. Back Bay Books,
    2003.

    · Debray,
    Regis Cours de mediologie generale. Paris, Gallimard,
    1993.

    · Dery, Mark
    Escape Velocity: Cyberculture at the End of the Century.
    New York, Grove Press, 1997.

    · Dodge,
    Martin & Kitchin Rob Mapping Cyberspace London
    Routledge & Kegan Paul, 2000.

    · Dodge,
    Martin & Kitchin Rob Atlas of Cyberspace.
    Addison–Wesley, 2002.

    · Faloutsos,
    Michalis, Petros y Christos "On Power–Law Relationship of
    the Internet Topology".
    http://www.cs.ucr.edu/~michalis/CAMERA.ps

    · Fiedler,
    Roger Mediamorfosis. Comprender los nuevos medios.
    Buenos Aires,
    Granica, 1998.

    · Fischer,
    Herve El choque digital. Buenos Aires, Universidad de
    Tres de Febrero, 2003.

    · Grusin,
    Richard & Bolter Jay David Remediation Understanding New
    Media
    , Cambridge, The MIT Press, 2000.

    · Huberman,
    Bernardo The Laws of the Web: Patterns in the Ecology of
    Information.
    The MIT Press, 2001.

    · Johnson,
    Steven Emergence: The Connected Lives of Ants, Brains, Cities,
    and Software
    . Nueva York, Scribner, 2001.

    · Levy,
    Pierre Cibercultura. Santiago, Dolmen, 2001.

    · McLuhan,
    Marshall & McLuhan, Eric. Las leyes de los medios.
    México, Grijalbo, 1988.

    · Oram, Andy
    Peer–to–peer. Harnessing the power of disruptive
    technologies
    . Sebastopol, O'Reilly, 2001.

    · Piscitelli,
    Alejandro La Generación Nasdaq. Apogeo ¿y
    derrumbe? de la economía digital
    .
    Buenos Aires, Granica, 2001

    · Piscitelli,
    Alejandro Ciberculturas 2.0. En la era de las máquinas
    inteligentes
    . Buenos Aires, Paidos, 2002.

    · Spector,
    Robert. Amazon.com. Get big fast. Inside the revolutionary
    business model that changed the world
    , New York,
    Harperbusiness, 2000.

    · Watts,
    Duncan J. Six degrees. The science of a connected age. New
    York, Norton, 2003.

    · Weinberger,
    David Small pieces loosely joined. A unified theory of the
    web
    . Cambridge. Perseus Publishing, 2002

    · Wolff,
    Michael Burn Rate: How I Survived the Gold Rush Years on the
    Internet
    . New York, Simon & Schuster, 2001.

    · Zingrone,
    Frank The Media Simplex. At the edge of meaning in the age of
    chaos
    . Toronto, Stoddart, 2001.

     

    Webografía

    · Paper
    original de Paul Baran de 1959
    http://www.ibiblio.org/pioneers/baran.html

    · Visual
    companion de Linked. The new science of networks
    http://www.nd.edu/~networks/linked/down.html

    · Web
    Characterization
    http://www.dlib.org/dlib/april03/lavoie/04lavoie.html

    ·
    Self–organized networks
    http://www.nd.edu/~networks/

    · Small World
    Project
    http://smallworld.columbia.edu/project.html

    · Networt
    dynamics
    http://www.santafe.edu/sfi/research/focus/networkDynamics/index.html

    · How big is
    the web?
    http://www.neci.nj.nec.com/homepages/lawrence/websize.html.

    · Fractales
    en la Wikipedia
    http://es.wikipedia.org/wiki/Fractal

    · 13 Rooters
    Maestros (Niveles de raíz)
    http://www.root–servers.org/

    · Mapas de
    Internet
    http://www.peacockmaps.com

    · Atlas of
    cyberspace
    http://www.cybergeography.org/atlas/atlas.html

     

    NOTAS

    · [1]
    – Las últimas décadas han sido
    epistemológicamente fructíferas al renunciar a los
    tecno–determinismos y a los reduccionismos de distinta
    estopa. Así hemos comenzado por fin a entender con cierta
    elegancia, economía de conceptos y precisión en la
    detección de los engarces, en qué debe consistir
    una ecología
    de los medios. Y en este proceso hemos debido renunciar a
    cualquier intento totalizador que trate de encapsular la
    complejidad de la comunicación humana bajo un solo enfoque
    o precepto. Como modelo de lo
    que no necesitamos hacer está por ejemplo la
    desahuciada semántica general de Alfred Korzybski.
    Entre los varios puntos de partida que pueden llevarnos a mejorar
    nuestra comprensión de esta ecología están
    las entradas que nos abren los siguientes enfoques. La
    enunciación de la problemática y algunos estudios
    de campo de Gregory Bateson (1993). Las leyes de la forma de
    Marshall McLuhan (1988). La mediamorfosis de Roger Fiedler
    (1998). La mediología de Regis Debray (1993). La
    remediación de Jay Bolter y Richard Grusin (2000). La
    simplexología de Frank Zingrone (2003), asi como muchos
    otros intentos mas o menos felices de entender esta endiablada
    problemática.

    · [2]
    – Su inexistencia no quita que ya existen varios linaje de
    análisis complejos de la red que merecen nuestro interés y
    beneplácito. No nos referimos aquí ni a las
    monografías que han entendido los casos exitosos de
    exploración/explotación de la red con fines
    comerciales (como The Perfect Store Inside Ebay de Adam
    Cohen o Amazon.com: Get Big Fast de Robert Spector Amazon,
    ni mucho menos a las lecturas mas o menos serias acerca de la
    evolución de la web y de su naturaleza
    esquizofrénica de paraíso/infierno como Dot.con
    : How America Lost Its Mind and Money in the Internet
    Era de
    John Cassidy o Burn Rate: How I Survived the Gold Rush Years
    on the Internet
    de Michael Wolff) si mas bien a los enfoque
    mas sazonados –generalmente provenientes del campo europeo)
    como los de Herve Fischer El choque digital, o de Pierre
    Levy Ciberculturas incluyendo obviamente Escape
    Velocity: Cyberculture at the End of the Century
    de Mark
    Dery.

    · [3]
    – Un leit–motif del presente libro es ver
    reflejada como en un fractal las mil y una ocasiones en que las
    teorías
    y los conceptos insistieron en defender prácticas y
    enfoques erróneos del funcionamiento de lo complejo
    aferradas como estaban a los enfoques centralistas y
    jerárquicos. La simpática obra de Steven Johnson
    Emergence: The Connected Lives of Ants, Brains, Cities, and
    Software
    –extensamente utilizada en el capítulo
    anterior de este libro– está precisamente dedicada a
    revelar la futilidad, impropiedad y en definitiva reduccionismo
    al buscar entender fenómenos como la vida en los
    hormigueros, la dinámica neuronal, el va y viene de las
    ciudades y la emergencia de software inteligente tratando de
    pensarlos bajo el eje de arriba hacia abajo. Su propuesta,
    ampliamente transitada en estos días, consiste
    precisamente en reconocer en la complejidad no una esencia sino
    un constructo, y en la tramas mas intrincadas y en las relaciones
    mas abstrusas simplemente la ejecución de reglas simples y
    locales que generan patrones de complejidad emergente
    creciente.

    · [4]
    – En 1971, Ray Tomlinson inventó un programa de email
    para mandar mensajes a través de una red distribuida y
    envió el primer email con un mensaje que decía
    "Testing 1–2–3" dirigido a sí mismo. El
    segundo mensaje de email, fue mucho más importante, se
    dirigió a todos los usuarios de ARPANET y consistió
    en las instrucciones y convenciones del recién inventado
    correo
    electrónico. En 1972, Ray Tomlinson modificó el
    programa de correo, eligió el signo @ para denotar "en" y
    su sistema resultó tan popular que solo un año mas
    tarde el 75% del tráfico de ARPANET era correo
    electrónico. No se trata de meras anécdotas. Como
    siempre pasa con las invenciones, Tomlinson no tenía la
    menor idea del poder de su engendro, y nunca pudo imaginar que
    con esas simples medidas cambiaría la historia del
    mundo.

    · [5]
    – Agradecemos infinitamente a Albert Barabasi haber
    encapsulado datos sueltos y deshilachados en las fronteras de
    muchas disciplinas haciéndolos converger en su obra
    seminal Linked How Everything Is Connected to Everything Else
    and What It Means
    abriendo así las puertas para una
    redologia o teoría
    de las redes. La misma nos ha servido de baliza clave para
    entender no solo la topología de la red sino
    también para poner en resonancia conceptos como los de
    complejidad–redes libres de escala–mundos
    pequeños–web fragmentada, etc. Existen al menos un
    cuarteto de libros no
    menos valiosos que enlazan temas semejantes con maestría
    sino igual al menos digna de destacar. Se trata de las obras de
    David Weinberger Small pieces loosely joined. A unified theory
    of the web
    ; de Mark Buchanan Nexus. Small worlds and the
    grounbreaking theory of networks
    ; de Duncan J. Eatts Six
    degrees. The science of a connected age
    y de Bernardo
    Huberman The Laws of the Web: Patterns in the Ecology of
    Information.

    · [6]
    – Para un paneo sinóptico de estas cuestiones
    recomendamos consultar los siguientes sitios web: Web
    Characterization; Self–organized networks; Small World
    Project; Network dynamics; How big is the web?

    · [7]
    – Un fractal es un objeto que tiene por lo menos una de las
    siguientes características: detalle en escalas
    arbitrariamente grandes o pequeñas, es demasiado irregular
    para ser descrito en términos geométricos
    tradicionales, tiene auto–similitud exacta o
    estadística, su dimensión es mayor que su
    dimensión topológica, o es definido recursivamente.
    Esta definición como muchas que hemos utilizado en este
    libro provienen de la Wikipedia sin lugar a dudas el mas
    ambicioso de todos los proyectos colaborativos,
    auto–organizados y voluntarios que hay en la red. Con
    500.000 términos definidos primorosamente en cerca de 50
    lenguas en ejemplos como estos podemos ver brillar en todo su
    esplendor el poder de la red.

    · [8]
    – Un técnico cambió dos líneas de
    código y casi toda la red se cayó durante tres
    horas. Lo que el empleado de MAI Network Services hizo fue
    permitir que un router indicara cuál de ellos
    proveía el mejor camino a toda la red. Así decenas
    de miles routers eligieron a ese pequeño tubo como el
    camino privilegiado para enviar mensaje en la red. En pocos
    minutos centenares de miles de routers cayeron en el agujero
    negro. Fue lo mas parecido a la caída de la red
    jamás visto.

    · [9]
    – El nivel superior de la jerarquía de servicios de
    nombre de dominio (DNS),
    también llamado nivel de raíz, es gestionado por un
    conjunto de 13 servidores llamados servidores de nombre de
    raíz. Estos servidores son la columna vertebral del
    funcionamiento de la red. Son propiedad de distintas agencias
    independientes y los servidores se llaman austeramente A, B, C
    hasta llegar al M. Diez de ellos están en USA y los
    restantes tres en Tokio, Londres, y Estocolmo. En Octubre del
    2002 un ataque masivo de denegación de servicio
    distribuido de origen desconocido interrumpió durante una
    hora el servicio web en nueve de los 13 servidores raíces
    que controlan la red. Aunque los usuarios finales no
    experimentaron las consecuencias, y aunque muchos expertos a
    posteriori minimizaron el episodio, otros analistas insisten en
    que de haberse prolongado el ataque durante varias horas
    más, éste hubiese supuesto el colapso de la red.
    Los contraterroristas insisten en que los atacantes o bien no
    sabían cuando tiempo hacía falta para bajar a los
    servidores, o a lo mejor estaban disfrazando su ataque porque su
    interés real era probar su red DDoS con vistas a futuros
    ataques mas puntuales. Aunque recibieron 40 veces el
    tráfico usual, para que el ataque se propagara al resto de
    la red se hubiese necesitado al menos 4 horas de ataque
    continuado. En el intento frustrado de los ciberterroristas se
    perdieron entre el 6% y el 10% de los sitios buscados.

     

    El contenido del presente trabajo está
    gobernado por la siguiente Licencia de Creative Commons:
    ver
    http://creativecommons.org/licenses/by–nc/2.0

     

    Alejandro Piscitelli

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter