Ante tal perspectiva no parece muy sensato cruzarse de
brazos a esperar que la respuesta venga sólo de la ciencia
y la tecnología. Nada garantiza que esa respuesta
esté allí, y si nos equivocamos será
demasiado tarde para corregir nuestro error. Es una apuesta
extremadamente arriesgada confiar solo en la salvación que
nos prometen los tecnófilos más optimistas. Esta
postura no solo minusvalora los efectos secundarios imprevistos
que toda tecnología tiene, sino que ignora además
el hecho de que las consecuencias políticas y sociales
negativas del progreso tecnológico no pueden ser
normalmente resueltas de ese modo, puesto que no se cuestiona,
sino que se afianza aún más, el poder de la
tecnología sobre los individuos y se reduce el
ámbito de la participación democrática
delegando en los técnicos el poder de decisión. El
desarrollo tecnológico se convierte así en objetivo
que no tolera más que aquello que proceda de la cultura
científico-técnica de la que se alimenta y queda
fuera del alcance de toda crítica sobre sus fundamentos.
La cuestión de la legitimidad de las exigencias impuestas
al ser humano por dicho desarrollo queda, pues, sin
plantearse. Este optimismo asume, en definitiva, un punto de
vista instrumental según el cual la tecnología es
axiológicamente neutra y pertenece sólo al
ámbito de los medios. Este punto de vista, sin embargo, ha
sido seriamente cuestionado por diversos autores, desde Heidegger
a Langdon Winner.2
Por otro lado, la versión pesimista
tampoco resulta aceptable. El pesimismo tiene dos
vertientes: están los que no creen que los seres humanos
sean capaces de abandonar su egoísmo para adoptar a tiempo
soluciones eficaces pero sacrificadas, y, en consecuencia,
piensan que éstos no querrán hacer nada para evitar
la catástrofe; y están los que consideran que la
tecnología pone a los hombres en un camino sin retorno en
el que, una vez comenzada la marcha, vienen ya determinados el
rumbo y el ritmo de los pasos, y piensan que los hombres no
podrán hacer nada para evitar la catástrofe. El
primer tipo de pesimismo es un juicio de intenciones con un
carácter más sentimental que teórico y no
posee la fuerza inhibitoria del segundo. Está por ver si
en una situación de peligro para la supervivencia de la
civilización o de la propia especie humana los hombres
serán incapaces de mostrar la determinación
necesaria. En todo caso ha habido circunstancias en las que
fueron capaces de organizarse y aceptar sacrificios en aras de un
fin valioso, aún cuando no les gustara o se mostraran
reacios en principio. No se trata, pues, de un obstáculo
imposible de vencer, si bien, ciertamente, no puede saberse de
antemano qué grado de sacrificio se considerará
aceptable y cómo de difícil ha de ser la
situación para que se dé esa
aceptación.
Otra cosa es el segundo tipo de pesimismo. Éste
va unido a un determinismo tecnológico para el cual el
desarrollo de la tecnología se rige por una lógica
interna que constriñe el campo de posibles actuaciones
humanas hasta el punto de que dicho desarrollo termina por
hacerse autónomo y es el sistema técnico el que
dicta las pautas de funcionamiento a la sociedad, en lugar de al
contrario (cf. Ellul, 1954). De acuerdo con eso, la
tecnología, al menos en la forma que ha tomado desde la
Revolución Industrial, impone al hombre un modo de ver las
cosas y de obrar con ellas. Intentar cambiarlo sería tanto
como querer abandonar la técnica. Si el desarrollo
tecnológico es autónomo y conduce al
desastre, es inútil todo esfuerzo de oposición.
Sólo queda prepararse para un naufragio
digno.3
El pesimismo es tanto o más arriesgado que el
optimismo por cuanto que además de a la pasividad conduce
a la desesperanza. Nada más contraproducente que
utilizarlo, como en ocasiones se ha hecho, para despertar las
conciencias ecológicas dormidas. El discurso pesimista
puede dar momentáneamente algunos resultados
prácticos, pero después dejará paso al
desánimo (si se van cumpliendo las predicciones de los
pesimistas) o a la desconfianza (si las predicciones no se
cumplen).
Además de ser malos consejeros para la
acción, el pesimismo y el optimismo descansan sobre
supuestos muy débiles o simplemente falsos. El optimismo
se equivoca al pensar que la mejor solución (o la
única) de los problemas creados por la tecnología
unida al crecimiento industrial consiste en más
tecnología. Los embotellamientos de tráfico pueden
ser paliados produciendo coches más pequeños o
haciendo más carreteras y más anchas (ambas
soluciones tecnológicas), pero la solución
más racional está en que haya menos coches
particulares en las calles y mejores transportes públicos.
Para eso no basta con meros cambios técnicos, hace falta
un cambio de hábitos y de valores. En realidad se
trataría en este caso de las mismas tecnologías
usadas de otra manera. Por otra parte, incluso aunque el
optimista tuviera razón en que una mejor tecnología
podría solucionar los problemas más graves creados
por la tecnología, ¿podemos confiar en disponer de
esa mejor tecnología con tiempo suficiente?
El pesimismo es más sutil porque puede
convertirse en una profecía de auto-cumplimiento: si todos
nos volvemos pesimistas será verdad que nadie
querrá o podrá hacer nada para evitar el deterioro
de las condiciones de vida en este planeta. Pero no tenemos por
qué ser pesimistas puesto que no es cierto que estemos
abocados a la catástrofe. No hay ninguna lógica
interna en el desarrollo de la tecnología que nos lleve
irremediablemente a ese final. El determinismo tecnológico
es falso; la autonomía de la técnica no es tal que
imposibilite el control sobre ella. Entre las
fuerzas que mueven el desarrollo tecnológico, que son muy
variadas y no todas ellas internas, están las de las
diferentes políticas sociales que se adoptan frente a
él. La técnica actual es ciertamente difícil
de controlar, pero en tanto que producto del hombre es
susceptible de control por parte de la sociedad, aunque las
medidas tengan que ser enérgicas y de aplicación
internacional (cf. Ropohl, 1983 y Niiniluoto, 1990 y 1997). Pocos
han sabido expresar esto con tanta claridad como Francis
Fukuyama, quien, sin embargo, defendió el determinismo con
anterioridad. Estas son sus palabras:
[S]encillamente no es cierto que el ritmo y el alcance
del desarrollo tecnológico no puedan controlarse. Existen
muchas tecnologías peligrosas, o éticamente
controvertidas, que se han sometido a un control político
efectivo, como las armas nucleares y la energía nuclear,
los misiles balísticos, los agentes de guerra
química o biológica, los órganos humanos,
las sustancias neurofarmacológicas, etc., que no pueden
desarrollarse ni circular libremente en los mercados
internacionales. La comunidad internacional ha regulado con
efectividad la experimentación con sujetos humanos durante
muchos años. Más recientemente la
proliferación de los organismos modificados
genéticamente (OMG) en la cadena alimentaria se ha
detenido en seco en Europa, y los granjeros estadounidenses
empiezan a abandonar unos cultivos transgénicos que
habían incorporado hacía muy poco. Se puede
cuestionar la oportunidad de tal decisión desde un punto
de vista científico, pero viene a demostrar que el avance
de la biotecnología no es un gigante imparable. (Fukuyama
2002. p. 300).
No es recomendable, pues, dejar por entero en manos de
científicos y técnicos la solución de los
problemas mencionados ni desesperar de toda solución. De
hecho hay razones para la esperanza. En la actualidad, por
ejemplo, estamos en condiciones de afrontar el debate
ecológico en términos menos partidistas y menos
demagógicos que hace algunos años. Los
países desarrollados se muestran algo más
dispuestos – aunque desde luego todavía no lo
suficiente– a llevar la parte de la carga que les
corresponde sin dejar caer todo el peso en las espaldas de los
países pobres. Estos últimos a su vez empiezan a
ver que los problemas ecológicos no son problemas de ricos
que deben ser resueltos por los ricos, sino algo en
lo que todos estamos implicados y cuya solución va
también en su beneficio. El protocolo de Kioto, con todas
sus limitaciones, fue una consecuencia muy positiva de este
cambio de actitud.
Ahora bien, sea lo que sea lo que podamos hacer y sean
lo profundo que hayan de ser los cambios a realizar, éstos
no deberían venir impuestos desde arriba por una
estructura de poder central y autoritaria. Aun cuando resulte
mucho más complicado, para ser efectivos y duraderos, los
cambios deberían ser establecidos democráticamente.
Una restricción de libertades individuales como la que con
toda seguridad comportarán algunas de las medidas a tomar
sólo contará con la colaboración de los
ciudadanos si éstos las sienten como una necesidad
legitimada y no como una imposición injusta. La poca
experiencia de la que se dispone enseña además que
el control democrático de la técnica es mejor que
el burocrático o que el tecnocrático.
Es evidente que todo ello exige una modificación
radical de muchas de las ideas éticas, económicas,
políticas, filosóficas, etc. que inspiran nuestra
conducta actual. La tecnología moderna ha aumentado el
poder del hombre hasta cotas que pocos se atrevieron a imaginar,
y el aumento de poder, como se ha dicho muchas veces, significa
un aumento de la responsabilidad. El ámbito de nuestras
responsabilidades se ha ampliado como consecuencia de la
técnica y todavía, sin embargo, no estamos
dispuestos a reconocer como propias esas responsabilidades
nuevas. Parafraseando a R. Ingarden (1980), somos responsables de
cosas cuya responsabilidad no asumimos. Una de las primeras
manifestaciones del cambio de ideas mencionado debería ser
el conocimiento y la asunción de nuestras nuevas
responsabilidades.
2. LA
TECNOLOGÍA TIENDE A DILUIR LA
RESPONSABILIDAD
Existen grandes obstáculos para llevar a cabo una
tarea semejante. La rapidez de las transformaciones sociales
producidas por la tecnología en las décadas
recientes ha hecho que muchos individuos no alcancen a entender
correctamente lo que sucede a su alrededor e incluso se sientan
enajenados de todo el proceso de desarrollo
científico-técnico. Han perdido el marco más
o menos estable de roles en el que se encontraban y aún no
saben cómo responder ante la realidad que se les presenta.
Las situaciones creadas por los avances tecnológicos, en
especial en el campo de las biotecnologías,
son tan diferentes de las que eran factibles hasta hace poco que
los legisladores corren tras ellas siquiera sea para
proporcionarles una regulación mínima. Ante tales
cambios cunde la desorientación y es difícil saber
con claridad dónde estamos y a dónde nos dirigimos.
Parece como si en el río revuelto del progreso
tecnológico lo que de verdad interesara fuera la
realización efectiva de todas las posibilidades a nuestro
alcance. Aquí como en ninguna otra parte está
vigente ese atributo que Vattimo (1986) asigna a la modernidad:
el valor de lo nuevo o la novedad como valor. Mientras tanto el
análisis de las consecuencias, el reparto de
responsabilidades y el señalamiento de las obligaciones
queda para un momento posterior. Se podría decir,
parafraseando a Napoleón, on invente, puis on
voit.
Pero además, cuando llega la hora, si es que
llega, de rendir cuentas por los efectos negativos, nadie quiere
darse por aludido. Los ciudadanos culpan a los técnicos y
científicos, éstos culpan a los políticos,
los políticos culpan a los productores y los productores
culpan al mercado (es decir, a los ciudadanos), con lo cual el
círculo se cierra. Con un espíritu pilatosiano que
afecta a todos, la responsabilidad es atribuida siempre a los
demás.4
Hay razones de fondo que explican la dilución que
la tecnología hace de las responsabilidades. Por sus
propias características la tecnología actual
proporciona múltiples justificaciones a aquellos que
quieren eludirlas a toda costa. Citemos algunas de esas
características:
a) La red de relaciones dentro del sistema
técnico se ha hecho tan intrincada que las acciones se
vuelven impersonales. Entre el agente y el resultado de su
acción se interpone una compleja serie de procesos que
alejan a aquél de los efectos reales que causa o
contribuye a causar, impidiendo incluso que llegue a conocerlos.
La mediación de la tecnología sumerge en el
anonimato mutuo a los que la producen y los que la usan. En esas
condiciones queda muy debilitada cualquier conciencia de
responsabilidad. El técnico que elabora un programa de
ordenador capaz de decidir cuáles son los mejores
objetivos para bombardear en una batalla no se siente
particularmente responsable de las víctimas
que el bombardeo causa. En definitiva él considera haberse
limitado a resolver un problema técnico de conexión
de datos; los que quisieron entrar en guerra o lanzaron las
bombas fueron otros, y quien eligió los objetivos
concretos fue el ordenador (Cf. Shallis, 1986, pp.
183-186).
b) Las acciones técnicas importantes
son planificadas, organizadas y ejecutadas por
grupos, no por individuos. La investigación
científica y técnica es cada día más
una labor de equipos "que ejercen un control limitado sobre los
recursos que utilizan y no pueden reclamar la autoría
personal de lo que tratan de hacer o de lo que consiguen",
equipos que a su vez dependen de poderes "colectivos" como el
Estado, el ejercito o la industria (Ziman, 1986, pp. 168). La
decisión de aplicar los conocimientos obtenidos a
través de la investigación es tomada por juntas
directivas, consejos de administración, asambleas de
accionistas, comisiones gubernamentales, grupos de expertos, etc.
La aplicación efectiva de dichos conocimientos es llevada
a cabo a través de grandes industrias, divididas en
multitud de departamentos, con un elevado personal. En palabras
de Rapp (1981, p. 155): "La acción dentro del marco de la
moderna técnica industrial, que con sus métodos de
la dominación matemático-espiritual de la
naturaleza también ha surgido del desarrollo occidental,
se basa precisamente en acciones colectivas cuidadosamente
planeadas y sistemáticamente realizadas". O sea, que el
responsable es Fuenteovejuna, lo cual debería significar
que lo somos todos y, sin embargo, se interpreta como que no lo
es nadie.
c) La previsión de las consecuencias que las
acciones tecnológicas pueden tener a medio y largo plazo
en una sociedad altamente tecnificada es sumamente
difícil, y siempre hay efectos imprevistos. Los impactos
de cualquier innovación técnica se ramifican
profusamente y no dependen sólo de sus propiedades
intrínsecas, sino de las circunstancias políticas,
económicas y sociales. El impacto de la
microelectrónica, por ejemplo, depende del potencial
económico de un país, de la cualificación de
sus trabajadores, de la mentalidad, del clima de opinión
pública, etc. Hay ramas de la tecnología, como es
el caso de la ingeniería genética, en las que las
consecuencias pueden ser particularmente graves pero
también enormemente beneficiosas; lo malo es
que nadie dispone del método infalible para separar el
grano de la paja. ¿Qué ocurre si buscando un
beneficio previsto causamos un daño imprevisto? ¿Es
lícito responsabilizar a alguien que con buena
información y buena intención provoca un mal que no
quería, que no pudo prever y que, por tanto, no pudo
evitar? Y si no lo fuera, ¿existe alguna tecnología
en la actualidad en la que esto no ocurra?
d) Finalmente, hay una manera aún más
básica en la que la tecnología impide la
asunción de responsabilidades. Cuando la tecnología
se convierte en tecnocracia y se deja que los fines sean puestos
por la propia técnica, considerándolos como
indiscutibles, el margen de maniobra queda reducido a elegir los
medios más eficaces para alcanzar esos fines. La
política es entonces sólo gestión, y la
democracia, elegir cada cierto tiempo un nuevo equipo de
gestores. El experto es erigido juez y la técnica es el
código. Desaparece la pregunta por el tipo de sociedad que
queremos; se da por sentado que se quiere la que nos proporciona
el desarrollo científico-técnico continuo, con el
consiguiente desarrollo económico. Se pregunta en algunos
países por los nombres de los gestores que más
agradan y, si acaso, por el tipo de necesidades que
gustaría ver cubiertas por la técnica, pero no se
pregunta si se está de acuerdo con el mundo que así
se construye. Las cuestiones prácticas esenciales, las
relativas a fines, quedan excluidas y, puesto que la
solución de las tareas técnicas no puede dejarse en
manos de la opinión pública, ésta queda sin
funciones (cf. Habermas, 1984, pp. 85-91). Cuando
todo ello ocurre, cuando los fines son sustraídos de la
discusión, cuando sólo cabe discutir sobre los
medios porque la técnica ha suplantado a la ética y
a la política, hemos abandonado cualquier posibilidad de
atribuir y asumir responsabilidades morales, por la sencilla
razón de que hemos acabado con la posibilidad de elegir
libremente.
He aquí, pues, algunos de los principales
obstáculos para un obrar técnico
auténticamente responsable. Como puede apreciarse, no son
para resolver de la noche a la mañana, ni pueden ser
enfrentados con soluciones simples. No es cuestión de
sustituir algunos procedimientos técnicos o algunas
prácticas aisladas. Se trata más bien de enfocar la
tecnología desde un punto de vista ético
renovado.
3. BASES PARA UN
OBRAR TECNOLÓGICO RESPONSABLE
Desde hace algunos años, sobre todo a partir de
la publicación en 1979 del libro de Hans Jonas Das Prinzip
Verantwortung (El principio de responsabilidad), se viene
produciendo en el campo de la reflexión ética una
intensa discusión sobre la necesidad de cambiar nuestros
puntos de vista morales para dar cabida a las cuestiones que
plantea el impacto de la tecnología sobre los hombres y la
naturaleza. Han cobrado así importancia conceptos como el
de bioética o el de ética medioambiental. Algunos,
como el propio Jonas, hablan de una ética de la
responsabilidad que reemplace a la ética centrada en la
justicia o en la buena voluntad.5
También se habla de la conveniencia de establecer
derechos humanos basados en la solidaridad y de reconocer
obligaciones morales no sólo con el prójimo, sino
también con las generaciones futuras e incluso con la
naturaleza. Se discute si existen responsabilidades colectivas,
derechos de los animales o "fines en sí" más
allá de la esfera humana (cf. Jonas, 1979;
Apel, 1973; Cortina, 1985 y 1990; Durbin (ed.), 1987;
Hottois, 1991; Gómez-Heras, 1997 y Riechmann,
2000).
La justificación o desestimación de estas
ideas es labor ardua que compete fundamentalmente a los
filósofos de la moral. No obstante, creo que pueden
enunciarse algunos principios de carácter general que
serían fácilmente aceptables con independencia de
la justificación filosófica que se les quiera
buscar.
1. Tenemos obligación de obrar responsablemente
en lo que a la tecnología se refiere, es decir, debemos
obrar sabiendo de qué somos responsables y asumiendo la
responsabilidad de nuestras acciones tecnológicas y de sus
resultados en la medida en que nos corresponda.
2. El obrar responsablemente en tecnología
entraña ante todo la obligación de reparar los
daños causados por nuestras acciones tecnológicas,
aun cuando no fueran previstos ni producidos
voluntariamente. Dichos daños incluyen
también aquellos que sólo serían sufridos
por las generaciones venideras.
3. Asimismo tenemos obligación (aunque menor que
la anterior) de que nuestras acciones tecnológicas
contribuyan a un mejoramiento neto de las condiciones en que se
desarrolla la vida en este planeta, en especial (pero no
exclusivamente) la vida humana, y de que ese mejoramiento se haga
de manera justa, repartiendo equitativamente los beneficios y los
riesgos. Aquí -dicho sea de paso- los conflictos de
prioridades están garantizados.
4. Puesto que el obrar responsable debe ser un obrar
consciente, tenemos la obligación de prever hasta donde
nos sea posible las consecuencias de nuestras acciones
tecnológicas, o en otras palabras, tenemos
obligación de conocer y de estar informados.
Estas obligaciones básicas llevan aparejados
ciertos derechos. Todos los ciudadanos tienen derecho a
participar en el control (positivo y negativo6) de aquellos
procesos tecnológicos que puedan afectarles de una u otra
manera. Todos tienen derecho a no ser dañados por los
efectos perniciosos de la tecnología y a tener acceso a
sus efectos beneficiosos. Por último, todos tienen derecho
a conocer y a ser informados sobre los posibles riesgos de los
procesos tecnológicos que les afecten. El reconocimiento
de tales derechos es condición indispensable para que los
ciudadanos puedan aceptar esas obligaciones, ya que sin ellos no
habría participación democrática en la toma
de decisiones sobre el desarrollo tecnológico y, por
tanto, la responsabilidad recaería sólo en las
manos de la minoría que ejerza el poder de
decisión. Por eso, en una sociedad tecnocrática son
difícilmente exigibles a los ciudadanos comportamientos
responsables frente a la tecnología.
No sería ocioso dar ahora un paso más para
concretar algunas de las responsabilidades atribuibles a los
distintos estamentos que intervienen en el sistema
técnico. Entre las responsabilidades de los gobernantes
está la de promover el debate público sobre los
fines de la investigación científico-técnica
y el uso de la tecnología, así como la de promulgar
leyes que preserven el medio ambiente, que favorezcan el control
público de la tecnología, que protejan los derechos
de los ciudadanos frente a sus efectos dañinos y que
distribuyan de un modo justo sus costos y sus beneficios. Por su
parte, es responsabilidad de los científicos y los
técnicos la previsión, tan completa como sea
posible, de los posibles daños que puedan producir sus
investigaciones y la autolimitación de las mismas cuando
sean incapaces de controlar esos efectos dañinos (un
ejemplo digno de alabanza fue la moratoria aceptada en 1975 por
los biólogos moleculares en la conferencia de Asilomar).
También es su responsabilidad informar verazmente de sus
trabajos, sin ocultar los riesgos, denunciar los proyectos de
investigación potencialmente peligrosos de los que tengan
noticia, y no tomar parte en ninguno que pueda acarrear
daños irreparables. Los productores tienen la
responsabilidad de fabricar productos seguros que no perjudiquen
la salud ni el medio ambiente, de evitar modos de
producción que esquilmen los recursos naturales, de
informar correctamente sobre lo que venden, de no dejarse guiar
en exclusiva por criterios económicos y de corregir los
daños causados sobre el hombre o la naturaleza en el
proceso de producción. Por fin, los consumidores tienen la
responsabilidad de colaborar en la preservación del medio
ambiente, de abandonar comportamientos incívicos que
contribuyen a deteriorarlo, de evitar el despilfarro en el
consumo, de participar en el control de la técnica, de
exigir sus derechos frente a ella y de denunciar sus
abusos.
Como puede apreciarse, el énfasis está
puesto aquí en los individuos que forman esos estamentos
sociales. Me he referido a los gobernantes, a los
científicos, a los técnicos, a los productores y a
los consumidores en lugar de hacerlo al Estado, a los
laboratorios, a las empresas o al mercado. Hay una razón
para ello. Comparto plenamente la tesis de Zimmerli (1988) de que
si bien la tecnología ha ensanchado el "foro" de nuestra
responsabilidad –introduciendo a las generaciones
futuras– así como su ámbito
–dejándonos responsables de consecuencias no
queridas–, el sujeto de la responsabilidad sigue siendo el
individuo. Resulta equívoco hablar de responsabilidades
colectivas. Las colectividades no pueden ser sujeto de
responsabilidad moral, que es la que nos interesa, aunque puedan
serlo de responsabilidad legal. Por eso, cuando se atribuyen
calificaciones morales a los Estados, las empresas,
los sistemas económicos, etc., o se afirma que
poseen responsabilidades morales, debe entenderse como un modo
figurado de hablar, ya que a quienes han de ir dirigidas
realmente esas imputaciones es a los individuos que los componen
u ocupan puestos estratégicos en
ellos.7
Sería bueno sustituir la expresión
"responsabilidades colectivas" por la de
"responsabilidades compartidas"; así quedaría
claro que el sujeto de la responsabilidad moral no es la
colectividad en abstracto, sino cada uno de sus miembros en la
medida que sea y se contrarrestaría una de las formas de
dilución que antes citábamos. Compartir la
responsabilidad con los demás es más factible que
asumir como propia una supuesta responsabilidad
colectiva.
Ahora bien, esto no significa que frente al
desafío de la tecnología basten transformaciones en
los comportamientos individuales mientras permanece intacto el
sistema mundial de relaciones económicas y de
instituciones políticas, legales, culturales, militares,
etc. La primera exigencia de un obrar tecnológico
responsable es la de crear las condiciones necesarias para que la
responsabilidad pueda ser asumida, es decir, para que nuestras
acciones sean auténticamente conscientes, libres y
queridas. La modificación de las actitudes individuales
es, pues, insuficiente si no va acompañada de una profunda
reorganización social que implante esas condiciones que
hoy día no se dan. Sin embargo, la reorganización
social puede ser urgida por ciertos cambios en las actitudes
individuales, por eso sería un error relegar estos
últimos hasta que no se den todas las condiciones
generales.
Ante todo es ineludible una toma de conciencia de la
situación a la que nos ha conducido la tecnología.
Ya escribió Ortega (1939/1979, p. 19) que,
contra lo que pueda parecer, a causa de la técnica "la
colocación del hombre actual ante su propia vida es
más irreal, más inconsciente que la del hombre
medieval y tiene menos noción que aquél de las
condiciones bajo las cuales vive". Pero no podemos seguir
dormidos posponiendo siempre cualquier decisión
importante. Hemos de preguntarnos, como propone Winner (1987, p.
34), qué clase de mundo estamos construyendo, cómo
alterarán los cambios tecnológicos nuestras formas
de vida, cómo afectarán al medio natural. Para ello
hace falta una labor educadora que permita sensibilizar al mayor
número de personas de las consecuencias de una
tecnología descontrolada. Esa labor debería
poner de manifiesto que la tecnología no tiene una
función meramente instrumental, sino que encarna y
despliega valores de diverso tipo, entre ellos valores
políticos y morales, y debería contribuir al
alumbramiento de una nueva imagen de las relaciones entre el
hombre y la naturaleza basadas esta vez en el respeto y no en el
dominio.8
Asimismo es necesaria una reflexión
crítica sobre los fines que perseguimos. No
debe consentirse que la tecnología hurte la
discusión pública sobre dichos fines o que se
sitúe más allá de la ética y la
política. Hemos de preguntarnos si queremos ese mundo que
estamos construyendo o si queremos otro distinto. El abandono
total de la producción a gran escala y la vuelta a la
naturaleza que proponen los partidarios de la "ecología
profunda" es una ingenuidad romántica, pero la alternativa
no tiene por qué ser el consumismo insaciable.
Pero la elucidación de las implicaciones de la
tecnología y su desviación con respecto a los fines
deseables no es suficiente. Hemos de propiciar también
cambios globales de carácter político y social. Eso
puede significar cosas muy dispares. Quizá lo más
dolorosamente apremiante sea terminar con la política de
insolidaridad de los países ricos con los países
del Tercer Mundo. Porque, en efecto, la solución de los
principales problemas sociales y medioambientales creados por la
tecnología pasa por un desarrollo equilibrado de los
países pobres, los cuales no pueden pagar ellos solos la
factura que eso acarrea. En un orden similar de prioridades se
encuentra el cese de la política armamentista. Por otra
parte, hay que elaborar leyes y crear instituciones
democráticas que posibiliten el control de la
técnica. Dejar que el control lo haga sólo el
mercado, suponiendo que una técnica perjudicial no
tendrá éxito en él, equivale a no ejercer
ningún control. Estas instituciones, entre cuyas funciones
básicas estaría la evaluación de los
posibles impactos de una técnica antes de su
aplicación, deberán situarse en todos los niveles
necesarios para que el control sea efectivo. En particular,
deberá haber alguna con autoridad mundial capaz de regular
los procesos tecnológicos con implicaciones
supranacionales. En los ámbitos nacionales las comisiones
mixtas compuestas por políticos, técnicos o
científicos y ciudadanos pueden desempeñar ese
papel y, de hecho, ya lo desempeñan en algunos
países como Gran Bretaña (cf.
Martínez Freire, 1990). La labor de control ejercida por
estas comisiones puede verse muy favorecida por una labor de
vigilancia y denuncia llevada a cabo por asociaciones no
gubernamentales.
4.
CONCLUSIONES
He intentado mostrar que la tecnología tiende a
diluir las responsabilidades y que, sin embargo, sin una
asunción afectiva de las mismas el desarrollo
tecnológico opera sin control y constituye un peligro para
la existencia humana. Parece, pues, que cuando más
necesitamos de la responsabilidad en nuestras acciones
tecnológicas, más difícil resulta que
ésta sea asumida. Esto es lo que T. M. T. Coolen (1987) ha
llamado "la paradoja pragmática". Sin embargo, frente a lo
que el determinismo tecnológico sostiene, esto no tiene
por qué ser un proceso irreconducible. Entre las cosas
más básicas que cabe hacer para contrarrestar esa
tendencia a la dilución de responsabilidades está
el propiciar y extender el conocimiento de la situación
que hemos descrito, fomentando para ello la discusión
pública de los problemas planteados por el desarrollo
tecnológico y afianzando la sensibilización de la
opinión pública ante los mismos. En esta tarea la
propia tecnología –en particular las
tecnologías de la información– puede ser de
gran utilidad. Si se hace todo esto no tendremos el éxito
asegurado, porque nada puede asegurar el futuro, pero mientras
algún dios viene a salvarnos, no sería malo que lo
intentásemos nosotros.
REFERENCIAS
BIBLIOGRÁFICAS
APEL, K. O. 1973: "Das Apriori der
Kommunikationsgemeinschaft und die Grundlagen der Ethik", en K.
O. APEL, Transformation der Philosophie, vol. II, Frankfurt:
Suhrkamp.
COOLEN, T. M. T. 1987: "Philosophical Anthropology and
the Problem of Responsibility in Technology", en P. Durbin (ed.),
Technology and Responsibility, pp. 41-65.
CORTINA, A. 1985: Razón comunicativa y
responsabilidad solidaria, Salamanca: Sígueme.
—— 1990: "Ecologismo y derecho
de los pueblos", Claves de la Razón
Práctica, nº 8, pp. 28-36.
DURBIN, P. (ed.) 1987: Technology and
Responsibility, Dordrecht: Reidel.
ELLUL, J. 1954: La technique ou l"enjeu du
siècle, Paris: A. Colin. FRENCH, P. 1984: Collective and
Corporate Responsability, New York: Columbia
University Press.
FUKUYAMA, F. 2002: El fin del hombre. Consecuencias de
la revolución biotecnológica, Barcelona: Ediciones
B.
GÓMEZ-HERAS, J. M. (coord.) 1997: Ética
del medio ambiente, Madrid: Tecnos.
HABERMAS, J. 1984: Ciencia y técnica
como "ideología", trad. M. Jiménez
Redondo y M. Garrido, Madrid: Tecnos.
HOTTOIS, G. 1991: El paradigma bioético, trad. M.
Carmen Monge, Barcelona: Anthropos.
INGARDEN, R. 1980: Sobre la
responsabilidad, trad. Juan Miguel Palacios, Madrid:
Dorcas.
JASTROW, R. 1985: El telar mágico, trad. Domingo
Santos, Barcelona: Salvat.
JONAS, H. 1979: Das Prinzip Verantwortung: Versuch einer
Ethik für die technologische Zivilisation, Frankfurt:
Suhrkamp.
LEM, S. 1976: Summa Technologiae,
Frankfurt: Insel.
LENK, H. y M. MARING 1998: "Engineering,
Management, and Ethics. Two Hats or Three?",
Argumentos de Razón Técnica, 1, pp.
49-73.
—— 1999: "Types of Responsibility and
Responsibility Conflicts in Science and Technology: An Analysis
of Codes of Ethics and Responsibility Problems in Engineering",
Argumentos de Razón Técnica, 2, pp.
51-68.
MARTINEZ FREIRE, P. 1990: "Ciencia y
sociedad", Philosophica Malacitana, nº 3, pp.
165-175.
MINSKY, M. et alii 1985: Robotics, New
York: Omni Publications International.
NIINILUOTO, I. 1990: "Should Technological
Imperatives Be Obeyed", International Studies in the
Philosophy of Science, 4, 181-187.
—— 1997: "Límites de la
tecnología", Arbor, 620, pp. 391-410.
ORTEGA Y GASSET, J. 1939: Meditación
de la técnica, Buenos Aires, 7ª ed.
Madrid: Revista de Occidente, 1977.
RAPP, F. 1981: Filosofía analítica de la
técnica, trad. E. Garzón Valdés, Buenos
Aires: Editorial Alfa.
RIECHMANN, J. 2000: Un mundo vulnerable, Madrid: Los
libros de la catarata.
ROPOHL, G. 1983: "A Critique of
Technological Determinism", en P. T.
DURBIN y F. RAPP (eds.), Philosophy and
Technology, Dordrecht: Reidel.
SANMARTIN, J. 1990: Tecnología y
futuro humano, Barcelona: Anthropos.
SHALLIS, M. 1986: El ídolo de silicio, trad.
José Vicuña, Barcelona: Salvat.
TOFFLER, A. 1985: La tercera ola, trad. Adolfo
Martín, Barcelona: Orbis.
VATTIMO, G. 1986: El fin de la modernidad, trad. Alberto
L. Bixio, Barcelona: Gedisa.
WINNER, L. 1987: La ballena y el reactor, trad.
Elizabeth B. Casals, Barcelona: Gedisa.
ZIMAN, J. 1986: Introducción al
estudio de las ciencias, trad. J. Beltrán
Ferrer, Barcelona: Ariel.
ZIMMERLI, W. Ch. 1988: "Variety in Technology, Unity in
Responsability?", en P.T. DURBIN (ed.), Technology and
Contemporary Life, Dordrecht: Reidel.
NOTAS:
1. Para una crítica de este optimismo y de sus
supuestos ideológicos cf. J. Sanmartín
(1990), cap. 4.
2. Como ha señalado Habermas (1984, pp. 128-129):
"A este desafío de la técnica no podemos hacerle
frente únicamente con la técnica. Lo que hay que
hacer, más bien, es poner en marcha una discusión
políticamente eficaz que logre poner en relación de
forma racionalmente vinculante el potencial social de saber y
poder técnicos con nuestro saber y querer
prácticos".
3. Hay que decir que el determinismo también
puede ir unido a una visión optimista del desarrollo
tecnológico. El imperativo tecnológico: "lo que
puede hacerse debe hacerse", tan del gusto de los predicadores
del futuro paraíso de la técnica, encierra
también la idea de que la tecnología es
autónoma y se rige por sus propias normas. Si el
determinismo se convierte en catastrofismo cuando va unido al
pesimismo, junto al optimismo degenera en una variedad
ensayística de la ciencia-ficción. Véase
como ilustración Lem (1976), Jastrow (1985), Minsky et
alii (1985) y Toffler (1985).
4. La expresión "espíritu pilatosiano" la
tomo de Martínez Freire (1990), aunque en mi
opinión no debe aplicarse sólo a los
científicos. La búsqueda del chivo expiatorio es un
deporte común.
5. La distinción weberiana entre una ética
de la responsabilidad y una ética de la convicción
(desentendida de las consecuencias de las acciones) está
en la base de esta propuesta. En una conferencia de 1919 titulada
"La política como vocación", Max Weber sostuvo como
deseable en la esfera política que la ética de la
responsabilidad complementase a la de la
convicción.
6. Günter Ropohl (1983, p. 92) distingue entre
control positivo y control negativo: "Ejercer control positivo es
iniciar un cierto proceso de desarrollo, promoverlo e
intensificar su progreso; control negativo, por otro lado, es
prevenir un cierto proceso de desarrollo, decelerarlo o
paralizarlo". Ropohl considera que el control negativo depende de
estructuras centralizadas, mientras que el control positivo puede
funcionar bien con las estructuras descentralizadas del
mercado.
7. Para un punto de vista contrario véase Peter
French (1984) y H. Lenk y M. Maring (1998) y
(1999).
8. De nuevo Habermas (1984, p. 62) hace una propuesta
interesante: "En lugar de tratar a la naturaleza como un objeto
de una disposición posible, se la podría considerar
como el interlocutor en una posible
interacción".
* Una versión anterior de este trabajo
apareció publicada en 1993, en el volumen VI,
número 9, páginas 189-200 de Revista de
Filosofía.
Autor:
Antonio Diéguez
Departamento de Filosofía
Publicado en José María Atencia y Antonio
Diéguez (coords.), Tecnociencia y cultura a comienzos del
siglo XXI, Málaga: Servicio de Publicaciones de la
Universidad de Málaga, 2004, pp. 311-328.
Página anterior | Volver al principio del trabajo | Página siguiente |