¿Es la ciencia de la
computación sinónimo de
informática?
¿Existe la necesidad de redefinir
la terminología?
¿La Informática es una
ciencia de la información o la Informática es
ciencia de la computación?
¿Qué dimensiones cumple la
Didáctica de la Informática?
Este planteo de preguntas e interrogantes, surge a
través del cuestionamiento sobre la veracidad o no del
cambio de ruta de la educación actual. ¿La ciencia
de la computación abarca todo el ámbito de la
informática, inclusive la realización de programas
y todo lo anexo como ciencia aplicada y por ello debemos de
enseñar, más que las herramientas, los fundamentos
y la metodología de modo de alcanzar la s respuestas o los
programas ya alcanzados por otros? O por el contrario,
basándonos en los programas existentes, sistemas
operativos, equipamiento físico y proyección y
captación de los medios tecnológicos de
información, proyectarnos a enseñar a aprender y a
aprehender este universo amplio y cambiante, para definir nuevas
rutas de acercamiento al conocimiento en general y particular,
que llene las aspiraciones y necesidades de a quién
está dirigida la enseñanza. Mis dudas están
puestas frente a ustedes, quienes leen éstas
líneas. Las respuestas, las trataremos de dilucidar
juntos. Abordaremos de manera sucinta, el problema
genealógico, etimológico y epistemológico.
Ahondaremos en argumentos que definan una posición clara y
por último, nos encaminaremos a proponer una
didáctica de la misma.
Palabras clave: Etimología, Epistemología,
Informática, Computación, Ciencia
Síntesis
En éste análisis intentaremos hacer en
él una introducción genealógica,
etimológica y epistemológica de los términos
COMPUTACIÓN, INFORMÁTICA y CIENCIA a fin de
dilucidar la diferencia en terminología y la
comprensión de lo vinculado al tratamiento,
investigación y desarrollo de lo que en principio
nació como una búsque da de soluciones
generalizables matemáticamente, a la cual se le
sumó la lógica, en aplicabilidad de usos
particulares y fue tornándose en una ciencia o
técnica aplicable, cuya lógica de enseñanza,
difiere según el propósito en el cual se
enmarque.
La ciencia, las técnicas y los procesos de
aplicación, específicamente en nuestro caso, tienen
puntos en común, los cuales podemos identificar y no
siempre son el paradigma que gestó su inicio, sino los
puntos de entrecruzamiento donde convergen y algunas veces nodos
donde divergen.
Nos interesa enfatizar, en la metodología
didáctica aplicable, específicamente de la
INFORMÁTICA, que es el punto que nos atañe.
Usaremos para ello, diferentes fuentes de información,
aportes y experiencias dadas en el campo educacional, sea este de
la educación formal, como la no-formal, institucional o
industrial.
Introducción
Entrar a la computación, la Informática o
la programación, implica una aproximación a un
mundo de dimensiones desbordantes, donde no es fácil
establecer un límite claro, bien definido. Este
límite se desdibuja bajo el manto de la tecnología
en la cual estamos inmersos en la actualidad.
Para quienes definen la computación como ciencia,
propugnándola como una ciencia básica a estudiar en
la Educación Primaria y Media, cuyo discurso educativo
-didáctico hace aparecer ésta como indispensable
para el desarrollo del educando, no dilucidan la gran limitante
potencial que se cierne sobre la población estudiantil,
respecto a la adquisición y aplicación de los
conceptos abstractos lógico-matemáticos.
Más allá de poder considerar la
enseñanza de la ciencia de la computación, un
facilitador para el desarrollo del pensamiento humano temprano y
para el aprendizaje, se convertirá éste en un
factor limitante, respecto a las posibilidades de acceso a
niveles superiores de educación.
En cambio, es apropiado considerar la ciencia de la
computación como asignatura científica para los
estratos de Enseñanza Media Superior (Segundo Ciclo),
debido a la estructura cognitiva y procesos de abstracción
mental propios de la edad.
La informática, va más allá da la
simple aplicación de la ciencia de la computación.
El uso y aplicación de la amplitud de soluciones
programáticas y de recursos educativos que le conciernen,
la potencializan para encontrar los diferentes vectores
necesarios para captar el interés y la atención del
párvulo o pupilo, diestro a no concentrarse bajo los
viejos preceptos de la educación más
voluntariosa.
Sin decir que es la panacea, lejos de entender que nos
da variadas herramientas, lo interesante de conducir al "newbie"
o novato, a través del teclado hasta descubrir lo que hay
detrás de la pantalla. Enseñar a aprender es tarea
ardua, pero durade ra, cuando que informática no es un fin
en sí misma, sino, un abrir puertas infinitas.
Hay quienes ven en ese enmadejado de caminos la claridad
al final de la hebra, como si esta estuviese predestinada a
encantarnos con odas de bienvenida. Ven lo colaborativo de todo
ese entrecruzamiento de datos, programas y fuentes diversas, como
la salvación mundial del acceso a la educación y a
la cultura, eliminando paulatinamente el analfabetismo y
permitiéndonos llegar de manera masiva a todos los
rincones del planeta; y con ello, una manera de establecer
igualdad de oportunidades de acceso a la información y a
la educación.
El caos desbordante de información y redes,
construyen los puentes necesarios para que todos podamos cruzar
de un lado a otro sin interrupciones ni limitaciones de acceso,
como el fluir en el Palacio de R´lyeh, donde no aplica la
geometría euclidiana.
La Didáctica de la Informática o la
ciencia del cómputo, tienen décadas discurriendo
entre estas dos polaridades, con resultados diversos y con
respuestas a veces alumbradoras.
Estamos aquí, en una encrucijada similar a la que
le toco jugar a Raskin en 1979, frente a Jobs, superando
así las apreciaciones de Chaitin, a modo de conducir la
computación a la realidad del usuario
común.
Partiremos de una breve definición
etimológica y epistemológica de cada
término, abordando un posible camino el cual debiera
conducirnos a una didáctica específica y las
condiciones necesarias para la Educación Media
singularmente, así como a los contenidos que
deberían tratarse.
El estudio de los nuevos entornos, fijará un
perfil trazable y una suerte de desambiguación que
podrá ser fuente de una planeación a largo plazo,
de políticas educativas incluyentes y
generalizables.
Genealogía de la Ciencia de la
Computación e Informática
Desde la Antigüedad, el Hombre ha tentado en
dilucidar respuestas p ara anticiparse al futuro. En esta
búsqueda ha desarrollado fundamentos cognitivos que le han
dado sentido, seguridad y veracidad a sus afirmaciones, sus
proyecciones sobre sucesos, experiencias y conocimiento
transmisible para el resto de la sociedad y la cultura en
general.
La Filosofía, como madre del saber,
antecedió a las matemáticas y marcó dos
rutas fundamentales, que son los ejes del pensamiento cognitivo
humano, el racionalismo empirista, sustentado en el conocimiento
directo de lo tangible y el platonismo, basado en ideas
inmateriales, absolutas, perfectas e infinitas, eternas e
inmutables, independientes del mundo físico. De un modo
más estricto, la diferenciación de lo particular y
lo universal. Es así como el conocimiento o las
teorías del conocimiento bifurcan en su origen y
desarrollan la amplia gama de ramales que hoy en día
conocemos.
La Ciencia de la Computación (CC) y la
Informática (TI), tienen, por decirlo así, una
misma disyuntiva genealógica. El mundo occidental,
considera que el nacimiento de éstas surge de un ramal
compuesto de las matemáticas, sin embargo, su
génesis tiene dos puntos de partida bien
definidos.
La historia nos muestra como, desde el comienzo de la
Modernidad, hubo un interés de aplicar la geometría
y las matemáticas a la mecánica, obteniendo
así, máquinas o procesos por los cuales se
podían producir o reproducir acciones repetitivas con
resultados homogéneos. En ese afán mecánico,
se creó las primeras máquinas que podían
producir cálculos en forma automática. Esto nos
llevó a conformar el concepto de que informática o
computación, surgían exclusivamente desde la
conceptualización lógico-algebraica de los procesos
matemáticos.
Sin embargo, la historia nos muestra algo diferente. El
concepto anteriormente definido, parece estar enmarcado en la
mistificación de la génesis de la
computación como ciencia.
En realidad, no es a través de la
abstracción matemática que se llega a
conceptualizar la computación, sino a través de la
búsqueda de soluciones particularmente precisas para
procesos u operaciones específica del orden
práctico.
La compañía, que marcará la
historia de la computación y establecerá gran parte
de la terminología que hasta hoy en día se utiliza
en informática y computación, nacía en 1911,
de la conjunción de cuatro empresas pioneras, la
Compañía de Máquinas
Tabuladoras (Tabulating Machine Company –
TMC –) y Fábrica de Balanzas Graduadas
(Computing Scale Corporation – CSC –,
National brand), Compañía Internacional de
Registro de Empleados (International Time Recording Company
– ITRC –) y Bundy Manufacturer Time Recorder
– Bundy –).
La empresa que ese año nacía, era
Computing Tabulating Recording Corporation (CTR), cuyo
nombre a partir de 1924 fue el de International Business Machine,
Inc.
(IBM); quien conjugó las
cuatro experiencias mecánicas, aunadas a los nuevos
procesos electromecánicos y
electromagnéticos e hizo posible producir los
automatismos requeridos para las nacientes procesadoras de datos
e información alfanuméricos, usando como elemento
principal de memoria, las tarjetas o cintas perforadas,
utilizando como instrumento de entrada y salida las
máquinas perfoverificadoras.
Los años posteriores a la Gran Recesión y
previos a la Segunda Guerra, marcaron para la IBM, el impulso a
desarrollar nuevas tecnologías, lo cual le llevó a
apartarse de su negocio inicial por el encargo por parte del
Seguro Social (US Department of Social Security) para registrar y
computar masivamente los beneficiarios del sistema "State
Welfare/Wallfare" y posteriormente el cálculo
balístico para la Fuerza Naval (US-Navy).
Es hasta los años `30 del Siglo XX que los
científicos, técnicos y estudiosos de procesos
computables, utilizaban medios mecánicos,
matemáticos y geométricos (álgebra y
trigonometría) para la obtención de datos
cuantificables para sus observaciones, investigaciones y
aplicaciones prácticas. Se buscaban resultados concretos a
hechos concretos, para plasmarlos en la realidad circundante. No
existe una búsqueda de verdades absolutas y abstractas,
por el mero hecho de obtener una diferenciación
dilucidadora.
En 1933, J. Eckert, diseñó y
controló a través de un primer programa
electromecánico las funciones de dos de las
máquinas al unísono, operadas por un cable. Los
trabajos de Eckert dieron origen para las investigaciones
informático-científica de la Universidad de
Columbia, NY.
John V. Atanasoff, por su parte, en colaboración
con su ayudante Clifford E. Berry, construyen en la Universidad
de Iowa en 1939, el primer procesador no-analógico, al
cual denomina ABC (Atanasoff-Berry-Computer), con tres
principios básicos, el uso del sistema binario, la
independencia de memoria y la operatividad digital,
no-mecánica, para uso general de
cálculo.
Al mismo tiempo, Howard H. Aiken, diseña y
construye el Mark I (ASCC – Automatic Secuencial Controled
Calculator –) en el Instituto Tecnológico de
Massachusetts, en la Universidad de Harvard, bajo el patrocinio e
inversión de la IBM, para la Armada americana (US-Navy),
para el cálculo de las trayectorias de balística
militar.
El programa requirió de cinco años
(1939-1944), usando los conceptos de Charles Babbage
y programando a través de tarjetas perforadas. Fue hasta
1973, cuando se demostró que Mark I plagió
diseños y conceptos de propiedad intelectual de Atanasoff,
que se consideraba la primera computadora
automática.
La "Regla de Cálculo", basada en cálculo
logarítmico y los instrumentos ópticos,
permitían rápidamente calcular la trayectoria de
una bomba soltada desde el cielo por los primitivos aviones o de
un proyectil lanzado desde tierra o mar para derribar o acertar
en un blanco, pero dependía de la habilidad del operario,
lo cual no producía una exactitud reproducible en un 100%.
Esto produjo infinidad de pérdidas, tanto humanas
como económicas.
El Departamento de Defensa americano (US-Defence
Department) y su Armada (US- Navy), en su afán de
minimizar pérdidas humanas y lograr una mejor eficiencia
económica del aparato militar, encomienda, a través
de la disposición de fondos para la investigación,
la fabricación de un aparato de cálculo para
mejoramiento y eficacia balística de su equipamiento
militar, continuación del proyecto Mark I, más
perfeccionado y optimizado.
El efecto, inicialmente estudiado y reportado por
Frederick Guthrie, luego desarrollado más ampliamente por
Tomas Edison (efecto Edison), dio paso a las válvulas de
vacío, componente utilizado para amplificar, conmutar o
modificar una señal eléctrica, mediante el control
del movimiento de los electrones en un espacio "vacio" a muy baja
presión o en presencia de gases especialmente
seleccionados. Éste componente permitió desarrollar
y construir las primeras máquinas
programables analógicas o computadoras primitivas (o
computadoras de primera
generación).
El proyecto que se inicia con Mark I en 1939,
culminará con el EDVAC (Electronic Discrete Variable
Automatic Computer), en 1949, de la mano de Von Neumann, Eckert y
Mauchly, basados en las investigaciones y tecnología de
Atanasoff, después de pasar por varios desarrollos
análogos del Mark I, Mark II y el ENIAC.
Los programadores u operadores, solían ser
matemáticos que trabajaban con una cartilla o manual de
operaciones. Para ese momento era común que las partes de
los programas y procedimientos que se repetían
asiduamente, hayan sido previamente escritas en blocks de notas,
dando origen a las bibliotecas de programas, conjuntos de
programas o rutinas (bibliotecas de
subrutinas).
Luego que la guerra terminó, comenzó una
nueva era para la computación científica de
investigación. Los recursos dedicados a la guerra fueron
liberados y dedicados a la ciencia de la información y
tecnología. En particular, el Departamento de Marina y la
Comisión de Energía Atómica de los EE.UU.
decidieron continuar patrocinando el desarrollo de los
computadores cuyo principal objetivo era estadístico y de
cálculo, así como la predicción
numérica (cálculo estadístico) del clima, la
mecánica de fluidos (hidráulica), la
aviónica, el estudio de resistencia de los barcos a las
olas, el estudio de partículas, la energía nuclear,
el cálculos de reactores, el modelado de
automóviles, etc.
Lo referido anteriormente, se remite al segmento
desarrollado en EEUU. Debemos también entender que la
ciencia, como su lenguaje mismo, es producto de su sociedad y
época. Es en este sentido, que los científicos
computacionales o informáticos, se consideraban a
sí mismos simplemente matemáticos, ingenieros
electrónicos o técnicos.
La clase dominante, políticamente conductora de
la Europa de principio de siglo XX, propugnaba una ciencia
positivista, con rasgos románticos y gran influencia
intelectual, herencia cultural de los tiempos de la
Ilustración. Expediciones a tierras exóticas o
lugares remotos, extensas investigaciones de las Ciencias Exactas
y Naturales, colmaban las tertulias intelectuales de las cortes
europeas, estancadas en los logros de la primera
Revolución Industrial del siglo
antecesor.
Concomitantemente con lo anterior, existía en
Europa al principio del Siglo XX y se extendió hasta la
década del veinte, una pugna idealista o espiritualista,
en contraposición al positivismo del siglo anterior,
así como una mezcla de cientificismo, evolucionismo y
materialismo, lo que conllevaba a posturas más cercanas a
la filosofía o filología, que al pragmatismo
mecanicista, propulsor de cambios tecnológicos aplicables
a hechos concretos.
Los estudios científicos europeos de comienzo del
Siglo XX abarcan conceptos y científicos tales como
Física y Química (M. Curie), Medicina (A. Fleming),
Física Quántica (M: Planck), Radio (G. Marconi),
Gödel, Russell, Lamaître, Ruska-Knöl, etc., por
solo mencionar algunos.
En Europa se desarrolla, en forma paralela y en veces
antecesora, la gestación, creación y
construcción de conceptos y modelos computacionales
similares a los americanos. Alguna de las veces, con
proyectos muy originales, superando en diseño y
conceptualización a los de sus
coetáneos americanos. La poca o nula comunicación y
el celo profesional de los americanos y sus laboratorios
universitarios demuestran a las claras que no
influyeron de manera directa, ni proveyendo ideas, ni proveyendo
modelos a sus pares europeos.
EL PRESENTE TEXTO ES SOLO UNA SELECCION DEL TRABAJO
ORIGINAL.
PARA CONSULTAR LA MONOGRAFIA COMPLETA SELECCIONAR LA OPCION
DESCARGAR DEL MENU SUPERIOR.