Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

La web como ecosistema virtuoso-vicioso (página 2)




Enviado por Djamel Toudert



Partes: 1, 2

 

3. Cuando ser digital fue una
mala palabra

Ademas la oposición de los militares (pero
también de la industria) a
las ideas de Baran no se reflejó tan solo en
filosofías o ideologías incompatibles, sino en un
hecho mucho mas insoportable a la mentalidad de la época
-lo que muestra cuanto
mas fuerte es la resistencia
económica y/o cultural que la incultura técnica. A
saber que la propuesta de Baran incluía descomponer los
mensajes en pequeños paquetes de información capaces de viajar
independientemente uno de los otros en la red. Para lograr este
(entonces) delirio hacía falta un sistema de
comunicación inexistente en ese momento, es
por ello que Baran abogó por la creación de un
sistema de comunicación digital. Esta demanda
difícilmente podía ser sostenida o cumplida por el
monopolio
telefónico de AT&T que desde la década de 1910
reinó omnímodo en USA, hasta su desmembramiento en
1982. Por eso el entonces presidente de AT&T, Jack Ostermani
rechazó de un plumazo la propuesta de Baran, sosteniendo
que era imposible de lograr, y de que en el caso de que llevara a
algo, eso implicaría crearle una competencia
interna a AT&T. Las ideas de Baran naufragaron pues ante la
oposición combinada del pensamiento
centralizado de los militares y de las prácticas
monopólicas -no menos centralizadas (3) – de la
industria, y sólo serían valoradas casi una
década mas tarde cuando ARPA (Advanced Research Project
Agency) las desarrollara por su propia cuenta para (re)-descubrir
imprevistamente, que solo habían llegado 10 años
mas tarde al mismo lugar. Pero entonces todo sería
diferente en el escenario internacional y local y lo otrora
inviable se demostraría ineluctablemente
necesario.

4. Modelos
alternativos de topología y diseño

Necesitamos entender la topología (la arquitectura
espacial) de la red si queremos diseñar herramientas,
y queremos ofrecer servicios que
corran eficazmente sobre ella. Curiosamente, aunque es un
producto 100%
humano, la red no ha sido diseñada en forma centralizada.
Desde el punto de vista estructural la red se parece mucho
más a un ecosistema que
a un reloj suizo o a cualquier otro aparato que haya brotado a
partir de un plano y que se haya concretado en el espacio
físico. Es por ello que entender a Internet supone no solo
competencias
ingenieriles o matemáticas -indispensables por otra parte-
sino sobretodo una comprensión detallada del intrincado
juego de
fuerzas políticas,
económicas sociales y culturales que subyacen en su
genealogía y devenir. Por eso conviene volver al corazón de
la guerra
fría. Al durísimo golpe narcisista que supuso
para los norteamericanos el lanzamiento de la perra Laica (ya sea
que ésta fuera única o varias como en las mejores
películas-perros de
Hollywod) al espacio. Como respuesta a esa obscenidad el
presidente y general Dwight Einsehower (ese del botón I
like Ike) creó ARPA. A los pocos años -y sobretodo
como respuesta a la visión del presidente John Fitzgerald
Kennedy que a su vez creó a la NASA (National
Astronautical Space Agency)- DARPA se quedó sin
credenciales ni objetivos
-mostrando como la competencia inter-burocrática
también tiene su dinámica interna y juega un rol
estratégico en la dinámica de las innovaciones. Por
ello DARPA se convirtió en una usina estratégica de
proyectos para
los militares. Y así Internet entró en el radar de
sus preocupaciones en 1965/1966 cuando Bob Taylor el
director de los programas de
computación de ARPA se encontró con
un agujero negro que consumía millones de dólares
del presupuesto
federal. En esa época las computadoras
costaban millones de dólares y Taylor en un día de
epifanía y revelación se dio cuenta de algo al
mismo tiempo trivial
y catastrófico. Las distintas redes de computadoras
entonces existentes eran incapaces de comunicarse entre si. Es
mas, dos máquinas
pertenecientes a distintas redes, cohabitantes en la
misma sala no eran capaces de hablar entre ellas. Divisado el
problema se trataba entonces de crearle la solución y esta
consistiría debidamente en algún protocolo capaz
de interconectar máquinas hasta ese momento mudas o
competentes exclusivamente en dialectos que nadie era capaz de
traducir entre si. Con un millón de poderosos y
sustanciales dólares de la época -al mismo tiempo
que un grupo de
investigadores ingleses comandados por Donald Davis del laboratorio
nacional Ingles de Física
redescubría las principales ideas y enseñanzas de
Baran por su cuenta testimoniando el peso de los descubrimientos
múltiples uy simultáneos – ARPA se puso a trabajar
en serio. En un simposio que tuvo
lugar en Texas en 1967 estas ideas empezaron a circular
ampliamente y lo que había sido anatema una década
atrás se convertiría en la ciencia
normal de la época. El packet-switching
devendría el abc de la red y aunque los militares
intervendrian poco y nada en su desarrollo,
Internet estaba lista para dar sus primeros pasos. Pero no nos
perdamos en la historia sino que
concentrémenos básicamente en la
topología… actual de la red, así como en tratar
de desentrañar los principios de
crecimiento y de construcción -si es que son detectables-
que dan cuenta de porque Internet tiene la forma actual, en
qué se parece ésta a otras redes, y qué
podemos deducir a partir del conocimiento
de la topología de la red conducente a una
anticipación de sus posibles futuros. Aunque de Internet
hay miles de mapas no existe
EL MAPA de la red. Lo que si existen son innumerables mapas que
buscan delinearla o recorrer sus principales configuraciones
(Dodge, Martin & Kitchin, 2000; 2001). Por eso si nos
apersonamos en peacockmaps.com encontraremos unos impresionantes
mapas realizados por Bill Cheswick y Hal Burch. Se trata de unos
llamativos entramados densos en nodos y enlaces que solo tienen
como homólogos las tomografías computadas o las
resonancias nucleares magnéticas del cerebro. Con una
importante distinción, mientras que el cerebro hace
milenios que se ha estabilizado anatómicamente, la red
crece sin parar y multiplica diariamente su hiperconectividad y
su densidad.¿Porqué es tan importante
esta cuestión de los mapas? En todo caso resulta sumamente
sugestivo que siendo el camino que va de la idea al objeto o
producto invariablemente un proceso que
comienza con detallados inventarios y
topografías, partiendo de meticulosos diagramas y
visualizaciones, Internet esté recorriendo el camino
inverso. Nadie sabe exactamente qué forma tiene la red, y
por mas que permanentemente se la patrulla y se la fotografía, se la ausculta y se la mide,
sus contornos son borrosos y sus centros son difícilmente
localizables y discernibles. Esta inmarcesibilidad está
profundamente ligada al carácter anárquico, auto-organizado
y fundamentalmente local y distribuido que subyace a la evolución de la red. Cualquiera -cumpliendo
un mínimo de requisitos- se "enchufa" a la red. Y si
hubiera alguien que decidiera cerrar la red (a excepción
tal vez de un locura insana del gobierno de USA
que algún día decidiera darse de baja en la red-
como lo hizo hace un tiempo atrás saliéndose de la
UNESCO), lo único que lograría es aislar una
porción minúscula de la misma, pero inmediatamente
la información se auto-rerutearía y a los efectos
prácticos tal caída seria invisible o en todo caso
insignificante. Es precisamente la naturaleza
distribuida, descentralizada y localmente aislada de la red la
que la vuelve por un lado prácticamente inmune a cualquier
ataque, pero al mismo tiempo lo que hace tan difícil
retratarla y aislarla.

5. Navegando en el mar de los
sargazos

Insistimos. Si estamos obsesionados por establecer uno
(o varios) mapa de la red ello obedece a que el diseño
de servicios nuevos y mas eficientes requiere obligadamente que
tengamos un mucho mejor conocimiento de su topología. Por
otra parte cuando Internet se inventó nadie imaginó
que podría llegar a tener mas de 1 millón de
usuarios, o que sus usos trascenderían primero a los
militares y luego a los relacionados con la investigación. Ni en 1970 ni en 1980 pero
tampoco en el mucho mas cercano 1990 a nadie se le ocurrió
jamás que existiría una Internet comercial y mucho
menos una red de
comunicación universal -que inclusive llegaría a
Marte y que a junio del 2004 tiene mas de 800 millones de
usuarios. Incluso el e-mail -best seller de todas las
aplicaciones en la red de todos los tiempos- emergió en
forma inopinada de un travestismo en el uso de la transferencia
de archivos a
manos de Rega Tomlinson un empleado de BBN y uno de los
inventores de la propia red (4). Lo mismo está
pasando con la web que es uno de
los mejores ejemplos que podemos mostrar hoy de desastre
exitoso
. Es decir de un sistema que escapado de la mesa del
dibujante, es abrazado entusiastamente por una cantidad
impresionante de usuarios, antes de que su diseño o
funcionalidad esté estabilizada, y que de pronto toma al
mundo por sorpresa y se autoconfigura de un modo al mismo tiempo
creativo y sumamente ineficiente. Porque si Tim Berners-Lee o
Robert Caillou pudieron haberse imaginado algunas de las
consecuencias de lo que estaban pergeñando en el CERN al
dibujar los primeros esbozos de la WWW a fines de la
década de 1980, seguramente la experiencia de los usuarios
hubiese sido totalmente distinta y la forma en que hoy usamos la
web se hubiese modificado acorde. Lamentablemente la red tal como
existe hoy difícilmente se adapte a nuestras necesidades y
no es casual que la revolución
de los weblogs haya
implicado un cambio brutal
en su uso y su reapropiación por parte de los usuarios
comunes y silvestres. Si los weblogs son tan exitosos ello se
debe justamente a las fallas estructurales en la
concepción y el diseño de la red. Nada
sorprendentemente mientras que muchos investigadores y
programadores insisten en crear nuevas aplicaciones y servicios,
un grupo de memetistas (entre los cuales afortunada y
orgullosamente nos encontramos) hemos empezado a hacernos una
pregunta clave: ¿Qué es exactamente lo que hemos
inventado? ¿Qué tipo de criatura hemos liberado en
el ciberespacio? y ¿En qué puede o nos podemos
convertir nosotros a partir de su mediamorfosis y
evolución? ¿Hasta qué punto los
hábitos de lectura y
escritura, que
sabemos son constitutivos de nuestra identidad y
subjetividad se verán transformados y modificados por su
emergencia? Porque aunque es un producto 100% humano, Internet
tiene una vida propia. A poco que la usamos y analizamos exhibe
todas las propiedades que son específicas de un sistema
complejo evolutivo, lo que la vuelve mucho más parecida a
una célula que
a un chip. Es por ello que quienes usamos e investigamos la red
hemos devenido en tiempo récord de exploradores en
diseñadores. Todos los internetólogos nos
asemejamos cada día mas a los biólogos y los a
ecólogos (de la información) -mas que a los
físicos y a los matemáticos– que deben lidiar con
un sistema increíblemente complejo que a todos los efectos
prácticos nos preexiste y es independiente de nosotros.
Pero si por un lado estamos en muchas mejores condiciones que los
biólogos para entender a la red, porque después de
todo nosotros la hemos diseñado, y conocemos cada uno y
todos los componentes que la conforman, por el otro concordamos
con los bioanalistas, en que no tenemos la mas remota idea de
qué pasa (qué tipo de estructura es
la que emerge) cuando el sistema se pone en movimiento y
se auto-organiza como mejor le place. Pero hoy estamos en el 2004
y no en 1997 o en el 2000. Porque si antes del 2000 se sabia poco
y nada de la topología de Internet, a partir del trabajo
seminal de los hermanos Michalis, Petros y Christos Faloutsos "On
Power-Law Relationship of the Internet Topology" lo que sabemos
ahora es que la red de routers que corona Internet es una red
scale-free (5). Dicho en romance todos los modelos
de la red que imaginaban hasta bien entrado 1999 que ésta
crecía en forma aleatoria estaban profunda y
definitivamente equivocados. Lo que los hermanos Faloutsos no
sabían, empero, es que sus investigaciones
se aplicaban pari passu a la WWW. O lo que es lo mismo, dicho
nuevamente en romance, que Internet no pertenece a la
categoría de las redes aleatorias, sino que merece un
lugar destacado en el zoológico de las topologías scale-free. Este descubrimiento
no es nada menor o secundario e implicó un claro
cuestionamiento a la concepción tradicional de que las
redes físicas y los routers no tenían ninguna
motivación
ni inteligencia
para desarrollarse según preceptos y reglas que valen
mucho mas para el caso de las relaciones sociales o de la libre
elección de jerarquías en la páginas que
navegamos que para la casualidad y el azar propios de sistemas inertes.
Cualquier inventario o
análisis de la evolución de la red
muestra su carácter exponencial como lo podemos
testimoniar en numerosos gráficos y cuadros (6). Esta
expansión está literalmente conectada a la
naturaleza scale-free de la red. Pero esto no alcanza. Para
entender Internet necesitamos tres principios
adicionales.

6. Principios para entender a
la Red

Debemos considerar entonces también la
conexión preferencial (preferential attachment). La
lógica
indica que todos deberíamos conectar nuestra computadora al
router mas
cercano, después de todo cuanto mas largo sea el cable mas
nos costará estar conectado. Sin embargo tal
apreciación intuitiva es profundamente errónea. El
largo del cable es irrelevante cuando del costo de las
comunicaciones
se trata. Porque lo que realmente nos interesa cuando nos
interesa abaratar la conexión, no es la distancia al nodo
sino su ancho de banda. Y no siempre es mucho mas
económico conectarnos con un router cercano pero pobre en
bits que con uno lejano pero mucho mas rico en ellos. Esto se
traduce en algo evidente, los nodos mas ricos (porque proveen mas
ancho de banda) son ipso facto los que mas conexiones atraen
-confirmando un efecto bola de nieve o una estructura "el ganador
se queda con todo" (the-winner-takes-all). Pero no alcanza aun
con estos dos criterios para entender como funciona la red.
Porque aunque no sea el criterio definitivo, la distancia
también importa. 2 km de fibra
óptica son mas caros que 0.5 km……. Por otra parte
los nodos no aparecen al azar en los mapas. Hay mas routers donde
hay mas demanda de ellos, y la demanda es a su vez una propiedad de
quienes quieren usarlos. Además la correlación
pertinente es aquella que pone en correspondencia la densidad de
la población y la densidad de los nodos de
Internet. Para nuestra infinita sorpresa la distribución de los routers sobre el
territorio de USA conforma un conjunto fractal (7), esos
objetos autosimilares descubiertos por Benoit Mandelbrot en los
años 70. Por lo tanto para entender la dinámica de
la red debemos tener en cuanta estas cuatro dimensiones o
variables:
reconocimiento, conexión preferencial, dependencia de la
distancia y estructura fractal subyacente. Cada una de estas
dimensiones si se desbandaran por la suya podrían destruir
la red. Así si la longitud del cable fuera la única
consideración a tener en cuenta la red podría
fácilmente recaer en una estructura semejante a la de las
autopistas, pero increíblemente
(¿mágicamente?) las cuatro dimensiones interactuan
entre si eliminando cualquier posible inestabilidad y haciendo
posible una Red scale-free.

7. Computación
parásita y los usos debidos e indebidos de la
red

Sin embargo esto no debe hacernos olvidar que tremenda
labilidad es al mismo tiempo motivo de sorpresa y alegría
pero simultáneamente una posible condición para el
eventual colapso de la red. Tuvimos un atisbo de caos en el
episodio que ocurrió el 25 de abril de 1997, a saber la
catástrofe de MAI Network Services que por error
convirtió a una configuracion defectuosa de routers en un
agujero negro por el cual se perdió todo el tráfico
de la red en pocas horas (8). Pero ese ejemplo -y hay
muchos mas ligados a la proliferación de viruses y otras
intoxicaciones
en la red- mostró la vulnerabilidad de la red a la
propagación de errores u horrores. Paul Baran jamás
se imaginó que los enemigos de la red podrían estar
durmiendo en su seno y que serían no los rusos sino los
hackers o mas
bien los crackers quienes con una facilidad sorprendente
podrían liquidar a la red en tiempo récord -algo
que puede hacerse apropiándose de los routers clave en los
servidores de
nombres de raíz (hay 13 en toda la red) (9) que
orientan todo el tráfico, ya sea lanzando marejadas de
ataques de denegacion de servicio
contra los nodos mas activos -tal como
acontenció en Febrero del 2000 contra Yahoo, Amazon, CNN y
eBay. Y lo mismo sucedió con el gusano Código
Rojo. Pero ¿qué es efectivamente Internet?
¿Podría como se le ocurrió a alguien ser una
computadora -aunque mas no fuera en clave metafórica? Es
obvio que la red está compuesta por computadoras que
intercambian páginas y e-mails, pero esto por si mismo de
ningún modo convierte a la red en una super-computadora. A
menos que… a menos que se pudieran inventar programas, gusanos,
troyanos o algún tipo de dispositivos de software que tomaran por
ataque a todas las computadoras del mundo y las hicieran trabajar
para alguien -ya fuese el profesor
Neurus o el doctor Zeus? Que esta idea no era descabellada pudo
comprobarse cuando en Agosto del 2001 una nota aparecida en
Nature publicada por Albert-Lazlo Barabasi y otros autores
acerca de la computación parásita, fue respondida
por decenas de miles de mails enviados desde todos los rincones
del mundo, amenazando a los intrépidos que habían
osado invadir las máquinas sagradas de la red con
represalias sin fin. Lo que hizo el equipo comandado por Albert
Lazlo-Barabasi, fue disfrazar simples pedidos de armado de
páginas, con verdaderas proezas computacionales que le
eran exigidas a las computadoras host. Cuando una computadora
recibía un paquete hacia un chequeo rutinario para
comprobar que el mensaje no se había corrompido en su
viaje sideral, pero sin saberlo al mismo tiempo estaba
resolviendo un problema que les interesaba a los investigadores
usando recursos
computacionales ajenos -sin que encima los dueños de los
equipos se dieran cuenta. Lo que los investigadores descubrieron
era la posibilidad de esclavizar máquinas remotas
abriendo así el abanico a una parafernalia de preguntas y
problemas
computacionales, éticos y legales que ni siquiera hoy
están bien planteados y mucho menos resueltos.¿Que
pasaría si alguien (al estilo de la pelicula El
hombre en el
jardín 1
de Brett Leonard) perfeccionara la
técnica y pudiera generar un sistema de
concentración de recursos ajenos a gran escala?
¿De quienes son los recursos disponibles en la red que de
pronto son esclavizados o apropiados por terceros? ¿Seria
esto el inicio de Internet como supercomputadora?
¿Podría emerger un ser consciente e inteligente (al
estilo de Skynet en Terminator 1 y 2) como resultado de
estos devaneos? De lo que no hay duda es de que en un futuro
sumamente cercano las computadoras empezarán a
intercambiar servicios y esfuerzos sobre la base de una demanda
ad hoc. Si hoy los chips funcionan mucho mas rápido que
las redes, en el futuro ambas velocidades se equipararán y
problemas inverosímilmente complejos se resolverán
a manos de una computadora única o de un grupo de
investigadores aislado. Ya tenemos ejemplos de este tipo
discutidos en esa excelente obra sobre el par a par compilada por
Andy Oram Peer-to-peer. Harnessing the power of disruptive
technologies
. De hecho experiencias como SETI acudieron a
este esquema aunque claro en una escala infinitamente menor, pero
sobretodo pidiendo permiso, algo que Barabasi y sus colegas
evitaron graciosamente hacer. Pero si el procesamiento
distribuido fuera una norma una infinidad de recursos actualmente
disponibles (las horas sino semanas o meses que nuestras maquina
permanecen conectada al ADSL
indolentemente por ejemplo) podrían servir para
tamaños y maravillosos fines, sin que nosotros
debiéramos enterarnos necesariamente. Nuevamente las
tecnologías van mucho mas rápido que nuestra
capacidad de investigarlas, analizarlas y sobretodo
normativizarlas. En el próximo capítulo avanzaremos
en la aplicabilidad de estas nociones al caso de la WWW y
sobretodo a la posibilidad -sobre la base del descubrimiento de
leyes de
información en sistemas gigantescos- de la posibilidad de
rediseñarlos y de imaginar su domesticación y/o
posibilidad de pliegue a nuestras necesidades, aunque éste
en realidad pase mucho mas por un auto-control que por
cualquier hetero-regulación.

8.
Bibliografía

 Abbate, Janet Inventing the Internet (Inside
Technology),
Cambridge, The MIT Press, 1999.

 Barabasi, Albert Lazlo Linked The new
science of networks. How Everything Is Connected to Everything
Else and What It Means
. Cambridge. Perseus Publishing,
2002

 Barabasi, Albert Lazlo , Brockman Jay &
Vincent Freeh Parasitic Computing. http://www.nd.edu/~parasite/

 Bateson, Gregory. Espiritu y naturaleza.
Buenos Aires,Amorrortu, 1993

 Buchanan, Mark Nexus. Small worlds and the
grounbreaking theory of networks
. New York, Norton,
2003.

 Cassidy, John Dot.con : How America Lost Its
Mind and Money in the Internet
. Perennial Currents,
2003.

 Cohen, Adam The Perfect Store Inside
Ebay
. Back Bay Books, 2003.

 Debray, Regis Cours de mediologie
generale
. Paris, Gallimard, 1993.

 Dery, Mark Escape Velocity: Cyberculture at
the End of the Century.
New York, Grove Press,
1997.

 Dodge, Martin & Kitchin Rob Mapping
Cyberspace
London Routledge & Kegan Paul,
2000.

 Dodge, Martin & Kitchin Rob Atlas of
Cyberspace
. Addison-Wesley, 2002.

 Faloutsos, Michalis, Petros y Christos "On
Power-Law Relationship of the Internet Topology".
http://www.cs.ucr.edu/~michalis/CAMERA.ps

 Fiedler, Roger Mediamorfosis. Comprender los
nuevos medios
. Buenos Aires,
Granica, 1998.

 Fischer, Herve El choque digital. Buenos
Aires, Universidad de
Tres de Febrero, 2003.

 Grusin, Richard & Bolter Jay David
Remediation Understanding New Media, Cambridge, The MIT
Press, 2000.

 Huberman, Bernardo The Laws of the Web:
Patterns in the Ecology of Information.
The MIT Press,
2001.
Johnson, Steven Emergence: The Connected Lives of Ants,
Brains, Cities, and Software
. Nueva York, Scribner,
2001.

 Levy, Pierre Cibercultura. Santiago,
Dolmen, 2001.

 McLuhan, Marshall & McLuhan, Eric. Las
leyes de los medios.

México, Grijalbo, 1988.

 Oram, Andy Peer-to-peer. Harnessing the
power of disruptive technologies
. Sebastopol, O'Reilly,
2001.

 Piscitelli, Alejandro La Generación
Nasdaq. Apogeo ¿y derrumbe? de la economía digital
.
Buenos Aires, Granica, 2001

 Piscitelli, Alejandro Ciberculturas 2.0. En
la era de las máquinas inteligentes
. Buenos Aires,
Paidos, 2002.

 Spector, Robert. Amazon.com. Get big fast.
Inside the revolutionary business model that changed the
world
, New York, Harperbusiness, 2000.

 Watts, Duncan J. Six degrees. The science of
a connected age.
New York, Norton, 2003.

 Weinberger, David Small pieces loosely
joined. A unified theory of the web
. Cambridge. Perseus
Publishing, 2002

 Wolff, Michael Burn Rate: How I Survived the
Gold Rush Years on the Internet
. New York, Simon &
Schuster, 2001.

 Zingrone, Frank The Media Simplex. At the edge
of meaning in the age of chaos. Toronto, Stoddart,
2001.

9.
Webografía

 Paper original de Paul Baran de 1959

 Visual companion de Linked. The new science of
networks http://www.nd.edu/~networks/linked/down.html

 Web Characterization http://www.dlib.org/dlib/april03/lavoie/04lavoie.html

 Self-organized networks http://www.nd.edu/~networks/

 Small World Project http://smallworld.columbia.edu/project.html

 Networt dynamics http://www.santafe.edu

 How big is the web?
http://www.neci.nj.nec.com/homepages/lawrence/websize.html.

 Fractales en la Wikipedia http://es.wikipedia.org/wiki/Fractal

 13 Rooters Maestros (Niveles de
raíz)http://www.root-servers.org/

 Mapas de Internet http://www.peacockmaps.com

 Atlas of cyberspace http://www.cybergeography.org/atlas/atlas.html

10. Notas

 [1] – Las últimas décadas
han sido epistemológicamente fructíferas al
renunciar a los tecno-determinismos y a los reduccionismos de
distinta estopa. Así hemos comenzado por fin a entender
con cierta elegancia, economía de conceptos y
precisión en la detección de los engarces, en
qué debe consistir una ecología de los
medios. Y en este proceso hemos debido renunciar a cualquier
intento totalizador que trate de encapsular la complejidad de
la
comunicación humana bajo un solo enfoque o precepto.
Como modelo de lo
que no necesitamos hacer está por ejemplo la
desahuciada semántica general de Alfred Korzybski.
Entre los varios puntos de partida que pueden llevarnos a mejorar
nuestra comprensión de esta ecología están
las entradas que nos abren los siguientes enfoques. La
enunciación de la problemática y algunos estudios
de campo de Gregory Bateson (1993). Las leyes de la forma de
Marshall McLuhan (1988). La mediamorfosis de Roger Fiedler
(1998). La mediología de Regis Debray (1993). La
remediación de Jay Bolter y Richard Grusin (2000). La
simplexología de Frank Zingrone (2003), asi como muchos
otros intentos mas o menos felices de entender esta endiablada
problemática.

 [2] – Su inexistencia no quita que ya
existen varios linaje de análisis complejos de la red que
merecen nuestro interés y
beneplácito. No nos referimos aquí ni a las
monografías que han entendido los casos exitosos de
exploración/explotación de la red con fines
comerciales (como The Perfect Store Inside Ebay de Adam
Cohen o Amazon.com: Get Big Fast de Robert Spector Amazon,
ni mucho menos a las lecturas mas o menos serias acerca de la
evolución de la web y de su naturaleza
esquizofrénica de paraíso/infierno como Dot.con
: How America Lost Its Mind and Money in the Internet
Era de
John Cassidy o Burn Rate: How I Survived the Gold Rush Years
on the Internet
de Michael Wolff) si mas bien a los enfoque
mas sazonados -generalmente provenientes del campo europeo) como
los de Herve Fischer El choque digital, o de Pierre Levy
Ciberculturas incluyendo obviamente Escape Velocity:
Cyberculture at the End of the Century
de Mark
Dery.

 [3] – Un leit-motif del presente
libro es ver
reflejada como en un fractal las mil y una ocasiones en que las
teorías
y los conceptos insistieron en defender prácticas y
enfoques erróneos del funcionamiento de lo complejo
aferradas como estaban a los enfoques centralistas y
jerárquicos. La simpática obra de Steven Johnson
Emergence: The Connected Lives of Ants, Brains, Cities, and
Software
-extensamente utilizada en el capítulo
anterior de este libro- está precisamente dedicada a
revelar la futilidad, impropiedad y en definitiva reduccionismo
al buscar entender fenómenos como la vida en los
hormigueros, la dinámica neuronal, el va y viene de las
ciudades y la emergencia de software inteligente tratando de
pensarlos bajo el eje de arriba hacia abajo. Su propuesta,
ampliamente transitada en estos días, consiste
precisamente en reconocer en la complejidad no una esencia sino
un constructo, y en la tramas mas intrincadas y en las relaciones
mas abstrusas simplemente la ejecución de reglas simples y
locales que generan patrones de complejidad emergente
creciente.

 [4] – En 1971, Ray Tomlinson
inventó un programa de email
para mandar mensajes a través de una red distribuida y
envió el primer email con un mensaje que decía
"Testing 1-2-3" dirigido a si mismo. El segundo mensaje de email,
fue mucho más importante, se dirigió a todos los
usuarios de ARPANET y consistió en las instrucciones y
convenciones del recién inventado correo
electrónico. En 1972, Ray Tomlinson modificó el
programa de correo, eligió el signo [arroba] para denotar
"en" y su sistema resultó tan popular que solo un
año mas tarde el 75% del tráfico de ARPANET era
correo electrónico. No se trata de meras anécdotas.
Como siempre pasa con las invenciones, Tomlinson no tenía
la menor idea del poder de su
engendro, y nunca pudo imaginar que con esas simples medidas
cambiaría la historia del mundo.

 [5] – Agradecemos infinitamente a Albert
Barabasi haber encapsulado datos sueltos y
deshilachados en las fronteras de muchas disciplinas
haciéndolos converger en su obra seminal Linked How
Everything Is Connected to Everything Else and What It Means

abriendo así las puertas para una redologia o teoría
de las redes. La misma nos ha servido de baliza clave para
entender no solo la topología de la red sino
también para poner en resonancia conceptos como los de
complejidad-redes libres de escala-mundos pequeños-web
fragmentada, etc. Existen al menos un cuarteto de libros no
menos valiosos que enlazan temas semejantes con maestría
sino igual al menos digna de destacar. Se trata de las obras de
David Weinberger Small pieces loosely joined. A unified theory
of the web
; de Mark Buchanan Nexus. Small worlds and the
grounbreaking theory of networks
; de Duncan J. Eatts Six
degrees. The science of a connected age
y de Bernardo
Huberman The Laws of the Web: Patterns in the Ecology of
Information.

 [6] – Para un paneo sinóptico de
estas cuestiones recomendamos consultar los siguientes sitios
web: Web Characterization; Self-organized networks; Small World
Project; Network dynamics; How big is the web?

 [7] – Un fractal es un objeto que tiene
por lo menos una de las siguientes características:
detalle en escalas arbitrariamente grandes o pequeñas, es
demasiado irregular para ser descrito en términos
geométricos tradicionales, tiene auto-similitud exacta o
estadística, su dimensión es mayor
que su dimensión topológica, o es definido
recursivamente. Esta definición como muchas que hemos
utilizado en este libro provienen de la Wikipedia sin lugar a
dudas el mas ambicioso de todos los proyectos colaborativos,
auto-organizados y voluntarios que hay en la red. Con 500.000
términos definidos primorosamente en cerca de 50 lenguas
en ejemplos como estos podemos ver brillar en todo su esplendor
el poder de la red.

 [8] – Un técnico cambió
dos líneas de código y casi toda la red se
cayó durante tres horas. Lo que el empleado de MAI Network
Services hizo fue permitir que un router indicara cual de ellos
proveía el mejor camino a toda la red. Así decenas
de miles routers eligieron a ese pequeño tubo como al
camino privilegiado para enviar mensaje en la red. En pocos
minutos centenares de miles de routers cayeron en el agujero
negro. Fue lo mas parecido a la caída de la red
jamás visto.

 [9] – El nivel superior de la
jerarquía de servicios de nombre de dominio (DNS),
también llamado nivel de raíz, es gestionado por un
conjunto de 13 servidores llamados servidores de nombre de
raíz. Estos servidores son la columna vertebral del
funcionamiento de la red. Son propiedad de distintas agencias
independientes y los servidores se llaman austeramente A, B, C
hasta llegar al M. Diez de ellos están en USA y los
restantes tres en Tokio, Londres, y Estocolmo. En Octubre del
2002 un ataque masivo de denegación de servicio
distribuido de origen desconocido interrumpió durante una
hora el servicio web en nueve de los 13 servidores raíces
que controlan la red. Aunque los usuarios finales no
experimentaron las consecuencias, y aunque muchos expertos a
posteriori minimizaron el episodio, otros analistas insisten en
que de haberse prolongado el ataque durante varias horas
más, éste hubiese supuesto el colapso de la red.
Los contraterroristas insisten en que los atacantes o bien no
sabían cuando tiempo hacía falta para bajar a los
servidores, o a lo mejor estaban disfrazando su ataque porque su
interés real era probar su red DDoS con vistas a futuros
ataques mas puntuales. Aunque recibieron 40 veces el
tráfico usual, para que el ataque se propagara al resto de
la red se hubiese necesitado al menos 4 horas de ataque
continuado. En el intento frustrado de los ciberterroristas se
perdieron entre el 6% y el 10% de los sitios buscados.

por Alejandro Piscitelli –

Los materiales,
obras y contenidos de presentación, difusión,
invitación y explicación de los diferentes Grupos de Trabajo
que componen este 'II Congreso Online 2004' están
gobernadas por la siguiente Licencia de Creative
Commons:

Licencia de
Reconocimiento-NoComercial
Más información sobre la
aplicación de la licencia al
Congreso

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter