- Abstract
- 1.
¿Cómo empezó todo? - 2.
Los desconocidos de siempre - 4. Modelos
alternativos de topología y
diseño - 5.
Navegando en el mar de los sargazos - 6.
Principios para entender a la Red - 7.
Computación parásita y los usos debidos e indebidos
de la red - 8.
Bibliografía - 9.
Webografía - 10.
Notas
Abstract
A pesar de su crecimiento azaroso la web posee regularidades
subyacentes sorprendentes. Ya se trate de la organización de los links
o de los patrones de comportamiento de sus casi mil
millones de usuarios. Muchas de estas regularidades han sido
anticipadas por la mecánica estadística, una de las
ramas de la física. Si estas metáforas son
válidas será posible diseñar en forma más
eficiente el uso de la red. Pero también se comprobará
que hay leyes de la forma o de la
organización que se
aplican a las estructuras mas variadas
(trátese de átomos o de infoagentes). Vista de este
modo la web es un ecosistema informacional gigantesco que
puede ser utilizado como laboratorio físico (y
metafísico) para testear el comportamiento humano y la
interacción social.
Porque contrariamente a nuestras expectativas -y a pesar de su
enorme tamaño- la red exhibe regularidades y patrones, y si
bien los buscadores son ciegos a una
parte significativa de la misma, ello no impide imaginar usos mas
inteligentes de recuperación de los datos asi como la creación
de nuevos formatos y narrativas que la utilicen y la reinventen
de una forma mucho mas inteligente y apropiada que lo que hemos
podido/sabido hacer hasta ahora.
A pesar de su crecimiento azaroso la web posee
regularidades subyacentes sorprendentes. Ya se trate de la
organización de los links o de los patrones de
comportamiento de sus casi mil millones de usuarios. Muchas de
estas regularidades han sido anticipadas por la mecánica
estadística, una de las ramas de la física. Si estas
metáforas son válidas será posible diseñar en
forma más eficiente el uso de la red. Pero también se
comprobará que hay leyes de la forma o de la
organización que se aplican a las estructuras mas variadas
(trátese de átomos o de infoagentes). Vista de este
modo la web es un ecosistema informacional gigantesco que
puede ser utilizado como laboratorio físico (y
metafísico) para testear el comportamiento humano y la
interacción social. Porque contrariamente a nuestras
expectativas -y a pesar de su enorme tamaño- la red exhibe
regularidades y patrones, y si bien los buscadores son ciegos a
una parte significativa de la misma, ello no impide imaginar usos
mas inteligentes de recuperación de los datos asi como la
creación de nuevos formatos y narrativas que la utilicen y
la reinventen de una forma mucho mas inteligente y apropiada que
lo que hemos podido/sabido hacer hasta ahora.
1. ¿Cómo empezó
todo?
Los diez años de WEB que hemos sabido diseñar,
revelan una pantalla convertida en un nuevo soporte
intelectual. Como lo fueron en un momento los ejercicios del
arte de la memoria de los griegos y
romanos, la inscripción en piedra o en cera; el papiro y el
papel y mas recientemente los soportes electromagnéticos. Lo
que sucedió con/en Internet, refugio del texto y del blanco y negro,
que terminó explotando en una paleta de nuevas formas
expresivas, de textos unidos a la distancia, de nuevas y
divertidas formas de enseñar, aprender, ver, oír,
negociar, vender, abusar, entretener y aburrir es lo mismo que
pasó con el resto de las tecnologías. Están
operando aquí dos principios evolutivos de los medios de
comunicación que estamos desanudando permanentemente. El
primero es que con cada nuevo avance tecnológico se gana
mucho y se pierde también bastante. El segundo es que los
nuevos medios generalmente recuperan
elementos de la
comunicación natural (biológica) eclipsados por los
medios primitivos anteriores (que extendieron la comunicación
sacrificando algunos de sus beneficios naturales, Grusin, &
Bolter (2000)). Pero es imposible entender estos resultados si
antes no se entiende qué y cómo se producen. Para ello
hay que investigar la infraestructura que hace posible el nuevo
medio, y sobretodo las reglas que regulan su emergencia,
crecimiento y expansión/declinación (1).
Sólo que Internet con su poder e idiosincrasia no es
una excepción sino la regla. Se trata de una red libre de escala (Barabasi, 2001), donde la
interacción de elementos simples desprovistos de toda
inteligencia terminan
generando un cerebro y una piel globales inesperada y
superpoderosa. Por ello antes de adentrarnos en la red
propiamente dicha habrá que examinar una familia de palabras entre las que
se incluyen: mundos pequeños, redología, redes libres de escala, regla del
80/20…… que forman su contexto y hacen posible su
comprensiónEn el caso específico de Internet sus
aspectos lingüísticos o mediáticos han estado sistemáticamente
oscurecidos por las narrativas que han dominado su
intelección, que han oscilado entre el tecnicismo, el
discurso ingenieril y mas
recientemente -en la ultima década- los mitos filo-económicos que
la habían transformado en Rey Midas. Con la mínima
distancia que nos permite haberla recorrido en múltiples
direcciones (Piscitelli, 2001; 2002) y con un escepticismo
creciente acerca de su capacidad de totalizacion o de
anulación de lecturas alternativas, un nuevo recorrido por
sus comienzos socio-técnicos (que falta nos hace un Latour
de la red (2)) ayuda a poner las cosas en una perspectiva
mas moderada y útil.
2. Los desconocidos de
siempre
Cada vez que se habla de los orígenes de Internet
un personaje mítico reaparece en el relato. Se trata nada
mas y nada menos que de Paul Baran (Abbate, 1999), quien con sus
recién cumplidos 30 años aceptó un flamante
trabajo en la Rand
Corporation, un think tank creado por el gobierno de USA en 1946.
Corría el lejanísimo 1959 y a Baran le ofrecieron un
conchabo por demás ambicioso. Diseñar un sistema de comunicaciones que fuera capaz
de detener un presunto ataque nuclear soviético. Por esa
época la Rand estaba demasiado asociada a las elucubraciones
de personajes como Herman Kahn una de cuyas debilidades fue
dedicarse a los juegos de guerra -al mejor estilo del
Dr Insólito de Stanley Kubrick- calculando la muerte eventual de millones
de personas como resultado de un ataque nuclear. A Baran tales
elucubraciones no le preocupaban demasiado, y con mucho
entusiasmo miró hacia otro lado y se puso a inventar un
sistema de comunicaciones totalmente distinto al existente, algo
que plasmó publicando una serie de 12 volúmenes que
harían historia, aunque con unos cuantos zig zags
en el medio. Para Baran la vulnerabilidad de la red de
comunicaciones existente derivaba obviamente del sistema de
control y comando sobre la que se
basaba en los años 50. Dado que una detonación nuclear
destruye todo lo que está alrededor de la zona de impacto
Baran imaginó como preservar a otros nodos no colindantes de
los efectos del ataque. Analizando los sistemas dominantes en la
época encontró tres tipos de organizaciones de redes a los que
denominó centralizado, descentralizado y distribuido.
Obviamente descartó de un plumazo como objeto de
elección a las dos primeras configuraciones dado el
altísimo grado de vulnerabilidad que las mismas
exhibirían ante un ataque nuclear. Para Baran la estructura ideal para esos
fines habría de ser una red distribuida en forma de
retícula, muy parecida a un sistema de autopistas, con
tan alto grado de redundancia, que aun cuando muchos de los nodos
fueran borrados del mapa por un ataque, caminos alternativos
mantendrían la conexión entre el resto de los nodos
sobrevivientes. Primer punto interesante: los militares le
pidieron a Baran que diseñara la red alternativa, por lo
cual la fantasía o mito acerca de un origen
militar de la red tiene un punto a su favor. Pero lo que esta
narrativa olvida/oculta es que finalmente los militares no le
hicieron un ápice de caso a Baran. Es por ello que la
estructura real de la red tal como la conocemos hoy tiene poco y
nada que ver con las propuestas concretas de Baran -aunque
quienes finalmente la diseñaron por ese remanido mecanismo
de equifinalidad– llegaron a un idéntico fin a
través de numerosos caminos alternativos.
Página siguiente |