El Derecho Digital Uruguayo
Doctrina

Informática

Dr. Alvaro J. Eirin    [*]  


1. DEFINICION

La Informática, considerada como uno de los productos preferidos de la denominada sociedad tecnológica fue definida por la Academia de Ciencias de Francia, en abril de 1964, como la ciencia del tratamiento racional, principalmente por medio de máquinas automáticas, de la información considerada como el soporte de los conocimientos humanos y de las comunicaciones en los campos técnicos, económicos y sociales.

Aún cuando se trata de un sintagma (proveniente de la contracción de los vocablos información y automática) carente de precisión en virtud de los distintos significados que se le pueden asignar, esta expresión ha sido aceptada casi unánimemente en el mundo entero, excepto en los países anglosajones que han preferido denominarla como "Ciencia e Ingeniería de los Ordenadores". (Computer Science and Engineering).

Esta última denominación, tiene sus orígenes en el estudio realizado en 1986 por la Association for Computing Machinery, entidad que estableció una fuerza de tareas (Task Force on the Core of Computer Science) que concluyó que no existían diferencias fundamentales entre los campos de las ciencias de la computación y la ingeniería de las computadoras en sus aspectos esenciales.

La definición brindada por la Academia Francesa ha sido recogida por la Real Academia Española, e incluida en otros prestigiosos Diccionarios de la lengua.

El inventor del término fue Philippe Dreyfus, quien en 1962 durante una sesión de la Asociación Francesa de Cálculo, lo presentó, explicando que había partido de la palabra Información buscando un palabra que se aproximara en forma consonante al de otras ciencias (Matemáticas, Mecánica, etc).

Por nuestra parte, siguiendo a la más prestigiosa doctrina en la materia hemos definido a la Informática como la ciencia del tratamiento lógico y automático de la información.

En consecuencia, el tratamiento debe ser automático, ya que las operaciones de captura, proceso y presentación de la información son realizadas por máquinas; y lógico por estar todo el proceso definido mediante programas que emulan el razonamiento humano.

Así caracterizada, la Informática puede presentarse actualmente como una ciencia particular, integrada en otra más amplia, cual es la Cibernética. En realidad distinguir con total precisión la Cibernética de la Informática, y establecer exactamente las relaciones entre ambas, resulta muy difícil, tanto por la novedad de sus aportes como por su compartida pretensión de aplicarse a todas las ramas del saber.

2. CIBERNETICA

Los ordenadores constituyen un aspecto importante, pero en modo alguno el objeto exclusivo de la disciplina que conocemos con el nombre de Cibernética.

La palabra fue introducida en 1948 por Norbert Wiener quien en el propio título de su obra fijaba el alcance que confería a la nueva disciplina como ciencia de la comunicación y el control en los seres vivos y en las máquinas.

La expresión Cibernética traduce la voz griega kibernetes, que significa el arte del gobierno del timonel, sugiriendo la maniobra correctiva al timón cuando la nave se aleja demasiado de su rumbo, ya que para el autor citado esa ciencia tenía por objeto fundamental el estudio de los mensajes y especialmente de aquéllos en que viene expresado un mandato.

Un mensaje es cualquier modelo que contenga información e influencie el comportamiento. La pérdida de control y la falta de orden u organización en los sistemas de comunicación se denomina entropía.

La cantidad de información efectivamente trasmitida es definida como entropía negativa ya que en la transmisión de mensajes como en la transmisión de energía, la entropía negativa decrece continuamente porque la positiva (pérdida de información o degradación de energía) crece continuamente.

En la más sencilla operación de un ser humano, se pueden descubrir los elementos de la teoría: la transmisión y el error posible de los mensajes y la retroacción correctora.

La Cibernética parte de la presunción de que el hombre y la máquina por distintos que sean en su estructura, utilizan el mismo proceso de comunicación. Un sistema de control se compone de tres fases. Durante la primera se produce una entrada de información. La segunda consiste en la interpretación de esta información. El comportamiento resultante, el proceso de salida de datos constituye la tercera fase. Esta división es válida tanto para el hombre como la máquina. En la primera etapa de los computadores, la diferencia entre hombre y máquina era notable, ya que aquél podía aprender de su propio comportamiento (la salida de información output se recuperaba parcialmente y volvía a utilizarse como imput. Este proceso fue definido por Weiner como realimentación (feed-back), o sea el control de una máquina sobre la base de su funcionamiento real más que del funcionamiento esperado. Mediante este proceso un sistema se adapta a su medio y aprende de su propia experiencia.

Ruyer destaca dos tesis enunciadas por Wiener como postulados de la Cibernética: a) las máquinas de información no pueden ampliar la información: jamás hay más información en el mensaje que sale de una máquina que en el mensaje que le es confiado, en los hechos hay menos a causa de los efectos que según las leyes de la termodinámica aumentan la entropía, la desorganización y la desinformación y b) los cerebros y los sistemas nerviosos son máquinas de información, obviamente más perfectas que las construidas industrialmente, pero que no presentan ninguna propiedad trascendente o imposible de imitar por un mecanismo.

Las máquinas de calcular, de razonar, de inducir, o de autoregulación para los cibernéticos son máquinas aptas para trasmitir o recibir informaciones a diferencia de: las máquinas sencillas que modifican la relación fuerza desplazamiento sin crear trabajo, o de los mecanismos de relojería que transforman en movimiento la energía de un resorte, o de las máquinas de vapor transforman la energía química en cinética.

Las máquinas excepto las de información se asemejan a los organismos sin cabeza.

Losano, siguiendo al alemán Klaus propone una clasificación de la Cibernética en cinco sectores: la teoría de sistemas; la teoría de la información; la teoría del control; la teoría de los juegos estratégicos; y la teoría de los algoritmos; precisando que de cada uno y a cada uno de estos sectores la Informática recibe y les brinda aportes fundamentales.

Actualmente existe una tendencia ampliamente difundida que considera a la Cibernética como la ciencia que investiga las leyes generales de los sistemas de tratamiento de la información.

Sin embargo existen autores que consideran la Cibernética exclusivamente como parte de la Teoría de la Información.

Como hemos visto y veremos en el desarrollo de este libro, científicos trascendentes como Wiener, Shannon o Von Neumann, han incursionado en terrenos que han trascendido lo científico, siendo plenamente aplicables a este respecto las palabras del gran maestro uruguayo Vaz Ferreira, quien en su célebre conferencia sobre Enseñanza de la Filosofía expresó: "Entre la ciencia y la filosofía hay una región intermedia que frecuentan tanto los científicos que vienen de un lado, como los filósofos que vienen del otro. Por eso es inevitable filosofar; ningún hombre de pensamiento puede no hacerlo".

La expresión que había caído en desuso ha cobrado inusitada fuerza en los últimos años y es así que han surgido gran cantidad de palabras que derivan de aquélla, como por ejemplo: Ciber-cultura, Ciber-espacio, Ciber-carretera, Ciber-navegación, Ciber-nauta, Ciber-nación, etc; para los cultores de esta disciplina lo que ahora cobra relieve no es el poder muscular, sino el poder mental.

El valor creciente de la Cibernética dependerá del desarrollo de la capacidad de razonamiento y de asimilación de nuevos hechos, así como del ajuste del individuo a la propia perspectiva: las viejas respuestas ya no serán suficientes para la sociedad de las Cibercarreteras.

No obstante y ante esta ola cibernética que nos envuelve diariamente, se han comenzado a lanzar múltiples voces de alerta acerca del peligro que encierra romper o intentar hacerlo, la frontera entre lo construido y lo nacido, o sea, quebrar la histórica y tradicional frontera natural, entre hombre y máquina.

Vaz Ferreira, en la Conferencia citada también sostuvo: "Abrir los espíritus; darles amplitud, horizontes, ventanas abiertas; y por otro lado, ponerles penumbra; que no acaben en un muro, en un límite cerrado, falsamente preciso; que tengan vistas más allá de lo que se sabe, de lo que se comprende: entrever, vislumbrar, y todavía sentir, más allá de esos horizontes lejanos y apenumbrados, la vasta inmensidad de lo desconocido. Y otro inolvidable pensador uruguayo ha expresado que: "Sólo somos capaces de progreso, en cuanto lo somos de adoptar nuestros actos a condiciones cada vez más distantes de nosotros, en el espacio y en el tiempo".

Negar la tecnología, es una forma de desconocernos dentro de una cultura determinada, por lo que debemos afrontarla con decisión y equilibrio, pero enérgicamente, tal como hemos visto, sostenían los viejos maestros. Ese es el verdadero desafío individual y colectivo de la sociedad de nuestros días.

3. PROCESAMIENTO DE DATOS

Se entiende por tal el registro y la manipulación necesarios para convertir los datos en una forma más depurada o más útil por lo que su función primordial es transformar los mismos en información.

Un conjunto de datos seleccionados y organizados constituye la información, el simple dato, o sea todo hecho, palabra, símbolo o gráfica que represente una idea, condición o situación, puede tener muy poco valor por sí mismo, a menos que proporcione conocimientos que permitan logran algún objetivo, por lo que es válido concluir, que los datos son la materia prima de la que se deriva la información, siendo la utilidad la característica distintiva entre uno y otro concepto.

La información, en consecuencia, supone la organización de los datos en una forma útil para las personas que la reciben, aportando a éstas conocimientos como resultado de las operaciones de procesamiento de datos. Toda información consta de datos, pero no todos los datos producen información específica e inteligible.

Puede concluirse que, el procesamiento de datos constituye un puente que convierte los datos puros en información.

Debemos tener presente que los datos no son útiles como tales para un conocimiento efectivo del fenómeno o sistema sobre el que queremos actuar, y que sólo mediante su procesamiento se obtiene una estructura útil y significativa denominada información, a la que puede considerarse como el conocimiento derivado del análisis de los datos , los datos son en principio información no elaborada y una vez procesados constituyen la información propiamente dicha, o si se prefiere los datos son hechos no estructurados, constituyendo la información un conjunto de datos seleccionados.

Usualmente, para dar respuesta a una pregunta específica o para tomar una decisión concreta sobre el curso de una acción a seguir, tenemos que efectuar algún tipo de procesamiento de datos.

Si por ejemplo tenemos una serie de dígitos como 100898, éstos constituyen un dato que no nos aporta información ya que puede tratarse de una fecha de nacimiento, de casamiento, de una cita, del número de algún tipo de pieza de repuesto o de un número telefónico.

La manipulación de símbolos –partículas de pensamiento en forma de números, palabras o imágenes- que están sujetos a reglas de lógica, gramática y aritmética que emplean tanto los seres humanos como los ordenadores constituye el procesamiento de datos, expresión que pese a ser relativamente reciente, no supone que la actividad que implica sea novedosa, sino que se remonta al momento en que las actividades del hombre excedieron su capacidad de recordar los detalles de todos sus actos.

En sus orígenes tal necesidad fue fundamentalmente comercial ya que el comercio era el medio natural de intercambio entre las distintas civilizaciones y la única forma de realizarlo en forma segura y eficaz, consistió en crear registros escritos. Los primeros muy primitivos, hasta la cultura sumeria, en la que las transacciones comerciales realizadas eran asentadas mediante el uso de la escritura pictográfica.

Las sucesivas culturas posteriores, fueron creando y empleando técnicas cada vez más sofisticadas ante la creciente complejidad que implicaban las actividades humanas, pero que sistemáticamente se fueron revelando como ineficaces, frente a la cantidad cada vez mayor de datos a procesar.

En la segunda mitad del siglo XX, tal actividad se ha tornado dramática y la búsqueda e implementación de mecanismos eficaces de procesamiento ha sido febril, ya que en ese lapso, el hombre ha acumulado más conocimiento sobre el mundo y el universo que lo circunda que en todos los siglos precedentes. En la década del 70, se produjo más material impreso relativo a datos, estadísticas y análisis, que en los 100 años anteriores de historia escrita.

Esta explosión de datos, conmocionó al hombre, ya que debió enfrentarse simultánea y sucesivamente a situaciones para las que no estaba preparado, lo que determinó un tratamiento inadecuado de la información recibida.

Cada individuo, debió afrontar, sin contar con las herramientas adecuadas, un volumen de datos, mayor del que podía procesar y en consecuencia comprender. Mientras se esforzaba además por asimilar la información, ésta se transformaba ininterrumpidamente. McLuhan en tal sentido ha señalado que la gran afluencia de datos en la época de la electrónica ha hecho anticuados nuestros procesos educacionales.

Sanders sostiene que por primera vez la sociedad depende de un recurso –la información- que es renovable y se reproduce a sí mismo, anotando que la información solo en materia científica se duplica actualmente cada cinco años, pronosticando que esa misma información se duplicará en muy poco tiempo cada dos años.

Charles Snow en su famosa conferencia acerca de Las Dos Culturas expresó que "durante toda la historia humana hasta este siglo, la rapidez del cambio social fue muy lenta; de hecho tan lenta, que podía pasar inadvertida durante la vida de una persona. La rapidez ha cambiado tanto que nuestra imaginación no se mantiene a su paso". Y Alvin Toffler en su obra El Shock del Futuro sostiene como tesis central que la impericia de nuestra sociedad para adaptarse a la razón creciente del cambio es el problema más crítico de nuestro tiempo.

4. ANTECEDENTES DEL COMPUTADOR

Ante esta realidad, era imprescindible dotar a la humanidad de alguna herramienta, que permitiera al hombre afrontar con éxito esta difícil encrucijada. La creación de las computadoras son la respuesta de la tecnología –entendida como el conocimiento sistemático de las artes industriales, comprendiendo a los objetos físicos artificiales y a las técnicas asociadas con ellas al apremio del individuo de procesar en forma rápida y eficaz grandes volúmenes de información.

Desde su invención, el hombre ha concretado lo que algún autor ha calificado como un salto cualitativo de la humanidad en la interacción con el saber similar a otros cambios notables como el habla, la escritura o la imprenta, al punto que personalidades como Juan Pablo II en su Encíclica Laborem Exercens , se detiene a examinar el impacto que la informática y la telemática han provocado sobre el trabajo humano.

Es evidente que todo el procesamiento de datos que se efectúa en la actualidad, lo podrían llevar a cabo seres humanos empleando tan sólo papel y lápiz. Pero en función de la complejidad del mundo actual y particularmente de la velocidad con que hay que tomar las decisiones, el desarrollo de las computadoras no solo ha permitido ejecutar las tareas con mayor rapidez y eficiencia que antes, sino que además ha hecho posible concretar cosas que en el pasado no se podían lograr.

Desde que nuestras vidas transcurren en el universo de los ordenadores, está en marcha una revolución tecnológica que al decir de Servan-Schreiber hace concebible que no estemos en condiciones de comunicarnos, con quienes no hayan adoptado en sus medios técnicos, estos decisivos progresos que se diseminan en la estructura industrial y que han cambiado la naturaleza de ésta. En igual forma se pronuncia McLuhan quien ante el impacto tecnológico en la praxis humana que ha provocado la irrupción del computador, se pronuncia categóricamente acerca de la "sustitución de la galaxia de Gutenberg por la galaxia electrónica"

Debe erradicarse la creencia de que el computador es un fenómeno totalmente novedoso, ya que por el contrario es el fruto de una larga evolución teórica de la que sólo nos limitaremos a señalar en este capítulo, sus elementos fundamentales agrupados en dos grandes ítems: las máquinas de registro y cálculo y la lógica.

La historia del proceso que determinó la aparición del computador, no es otra que la de la correspondencia entre el pensamiento del hombre y los requerimientos de la sociedad en la que vive. Nuestra capacidad de pensamiento, es la única forma de dar respuesta a la necesidad imperiosa de controlar el ambiente en que vivimos.

5. CONTINUACION. LAS MAQUINAS DE REGISTRO Y CALCULO

Es unánime el considerar el ábaco como el antecedente más remoto del computador. Este invento fue el primer instrumento manual de cálculo. Pese a que aún se emplea, su importancia desapareció alrededor del año 200, como consecuencia de la aparición del papel y la aceptación del sistema numérico arábigo.

Los primeros aparatos mecánicos de cálculo son creados durante el siglo XVII. En 1617, el escocés John Napier, elaboró la tabla de logaritmos. Este instrumento revolucionó las técnicas de cálculo ya que mediante el uso de las tablas, las operaciones de multiplicar y dividir pueden reducirse a las de sumar o restar respectivamente.

El mismo Napier, crea las reglillas para fabricar sus tablas, que son el antecedente directo de las reglas de cálculo , ideadas por William Ouhtred en 1621.

W. Schickard, profesor de la Universidad de Tubingen, construye el primer calculador mecánico de seis cifras en 1623.

En 1640, Blaise Pascal, matemático francés, perfeccionó una máquina sumadora que funcionaba de modo muy similar al odómetro de nuestros automóviles. Este invento constituye el primer eslabón que registra la historia sobre tratamiento automático de la información.

La máquina de Pascal presentaba el grave inconveniente de que no podía usarse en todos los problemas de cálculo, ya que como se ha expresado solo podía sumar, sin embargo en 1671 Gottfried Von Leibniz, filósofo y matemático alemán, fabrica una calculadora que podía multiplicar y dividir además de sumar, esta máquina perfeccionada en 1820 por Charles Thomas es el antecedente directo de todas las calculadoras electromecánicas utilizadas en el siglo XX.

En 1801, el francés Joseph Marie Jacquard, desarrollando las ideas de Basile Bouchon y de Falcon, idea un telar que operaba con tarjetas perforadas. En los hechos, el telar de Jacquard, fue la primer máquina programable que construyó el hombre y son muchos los que la sitúan como el antecedente teórico y práctico de las computadoras modernas.

El siguiente invento relevante, es el efectuado por el inglés Charles Babbage, Profesor de la Universidad de Cambridge. Su intento es el primero que trata de compatibilizar el principio de la tarjeta perforada con una aplicación matemática. En 1812 comienza su trabajo en lo que denomina "máquina de diferencias", abandonando este proyecto en 1823 por el de una máquina más ambiciosa: "la máquina analítica", en ella incluía una unidad de memoria que almacenaría los datos en forma de perforaciones en tarjetas, dotándola además de una unidad aritmética donde se harían las computaciones matemáticas y una unidad de control para dirigir las operaciones. Esta máquina no pudo ser producida en forma comercial, y el mismo Babbage solo pudo fabricarla en miniatura, ya que la tecnología existente era incapaz de producir las piezas requeridas por su invento. Por otra parte, estudios posteriores, han demostrado que una máquina de la complejidad de la concebida por Babbage, no puede ser mecánica.

Lady Lovelace, hija de Lord Byron, captó plenamente las posibilidades de la máquina de Babbage, e ideó una fórmula de "aritmética binaria" que aún se emplea en computación, pero que en su momento no logró concretar las promesas de la máquina de Babbage.

En 1890, el alemán Herman Hollerith, crea lo que se llamó "máquina de censos", que era un aparato mecánico que usaba tarjetas perforadas para la tabulación de datos. La diferencia fundamental entre su máquina y las nateriores radica en que en su máquina la entrada de información es automática, lográndose por primera vez independizar el proceso de cálculo y la entrada de información de la supervisión directa del hombre. A nlos efectos de que se evalue cabalmente la importancia de la máquina de Hollerith, basta señalar que los resultados del censo realizado en 1880 en los Estados Unidos de América, utilizando recursos exclusivamente manuales, recién estuvieron completos en 1887, en tanto que en el censo de 1890 en donde se empleó dicha máquina por primera vez, se completó el relevamiento, en una tercera parte del tiempo que había insumido el anterior, pese a que la población total de los Estados Unidos había aumentado un 24% (en 1880 se censaron 50 millones de personas y en 1890, 62 millones).

Hollerith entusiasmado con los resultados obtenidos por su máquina funda en 1896 la Compañía de Máquinas Tabuladoras (Tabulating Machine Company) que se convierte en 1911 en la CTR (Computer Tabulating Recording) y en 1924 en la mundialmente conocida IBM.

En 1911, y para el censo de población de 1910, también en los Estados Unidos de América, la compañía Powers desarrolla nuevas tabuladoras que resultaron ser ostensiblemente mejores que las de CTR. Esta compañía luego de sucesivos cambios de denominación fue conocida mundialmente como Sperry Rand.

6. CONTINUACION. LA LOGICA

En el siglo XIX, algunos lógicos constataron que la lógica tradicional aristotélica, no ofrecía una teoría adecuada de la conclusión lógica, ya que era imposible analizar demostraciones en la matemática con los medios de la lógica formal tradicional. Tal constatación, sin embargo, debe remontarse a Leibniz, quien en su obra "Nuevos Ensayos sobre el entendimiento humano", señalaba el camino para una matemática universal que brindara los instrumentos intelectuales necesarios para explorar cualquier campo u orden. Para lograr esta meta, puso especial hincapié en la necesidad de construir un lenguaje universal, que permitiera expresar por medio de símbolos los conceptos fundamentales, irreductibles de todas las ciencias, una vez definida la forma de combinar estos símbolos, se podrían reformular todas las ciencias a los efectos de demostrar la teoría lógica de su objeto de estudio; y por otra parte debía construirse un cálculo universal como herramienta idónea para operar con el sistema de ideas expresadas simbólicamente en un lenguaje universal

Leibniz, por tanto, debe ser considerado el padre de la lógica matemática (conocida también como lógica simbólica o logística), pero la estrecha relación de esta lógica con sus tesis filosóficas, hizo que su obra quedara olvidada hasta principios del siglo XIX.

Es a partir de ese momento, que se concreta el efectivo desarrollo de la lógica matemática, en especial, mediante la obra de dos matemáticos ingleses: Augustus De Morgan y George Boole, quienes arribaron a la convicción de que era posible alcanzar un número indefinidamente mayor de inferencias válidas que el reconocido hasta entonces.

Boole descubrió que mediante la adopción de convenciones simbólicas apropiadas es posible generalizar y acelerar los procesos lógicos, en especial en su libro "Una investigación de las leyes del pensamiento, demostró que los métodos de la matemática no sólo son aplicables al estudio de cantidades, sino a cualquier ámbito ordenado y en particular a las relaciones entre clases y proposiciones.

El punto culminante de este proceso, lo alcanzan Russel y Whitebread, en su obra "Principia Mathematica". Estos autores, deducen toda la matemática de la lógica, de forma que la aritmética misma, no requiere más nociones fundamentales que las de la lógica. Obsérvese, que de ser correcta esta tesis, la consistencia de la matemática depende de la consistencia de la lógica.

La rama de la lógica matemática denominada semiótica que estudia la lógica de los símbolos, permitió hallar métodos exactos con los que se puede demostrar que un sistema dado está libre de contradicción, que sus axiomas son independientes entre sí (ninguno puede ser derivado de otro) y que es completo (todo enunciado que no sea deducible de sus axiomas tiene que estar en contradicción con el sistema), así como desarrollar métodos rigurosos para la axiomatización; dentro de esta rama sobresale Gödel quien demuestra que mediante la codificación de los símbolos empleados para enunciar y demostrar teoremas matemáticos, es posible interpretar cada demostración de un teorema matemático como un cálculo aritmético.

Las teorías de Gödel, son seguidas por Turing, quien expresa que la demostración de un problema matemático, se reduce a operaciones muy simples, con símbolos, concibiendo para demostrarlo, una máquina dotada de una cinta indefinida en ambas direcciones que actuaba como registro de símbolos; capaz de reconocer símbolos escritos y escribir nuevos símbolos en la cinta; desplazarse en uno u otro sentido y tomar decisiones según el símbolo que encuentre.

La máquina de Turing y su basamento conceptual constituyen la primera teoría de un computador.

En definitiva, puede concluirse, que el avance que se obtiene en los estudios lógico matemáticos, en especial desde 1920, han sido el punto de partida, para las teorías de la computación de Allan M. Turing, pero han permitido estudiar los problemas de la fundamentación de la matemática (Hilbert, Brouwer), descubrir los cálculos de deducción natural (Gentzen), los teoremas de limitación de Church, la lógica polivalente de Lukasiewicz, la lógica combinatoria de Curry, la lógica modal de Lewis y los estudios de semántica de Tarski, tal es entonces la enorme importancia que merecen estos estudios.

Los lenguajes simbólicos han sido creados en el fin de expresar por símbolos precisos, no solo los conceptos y las operaciones de la matemática, sino también y sobretodo, los nexos lógicos usados en esa ciencia.

7. EL COMPUTADOR

A partir de Turing, las historias paralelas de los instrumentos de cálculo y de la lógica matemática, a los efectos de la teoría de la computadora, se consolidan en una sola y hasta nuestros días han seguido indisolublemente unidas.

Ya en la década de 1930, las máquinas electromecánicas de tarjetas perforadas, resultaban demasiado lentas para establecer los requerimientos cada vez mayores del flujo de datos.

Howard Aiken profesor de la Universidad de Harvard, concibe en 1938, la primera computadora moderna; para ello reúne 78 máquinas sumadoras y calculadoras controladas por medio de instrucciones perforadas en una cinta de papel y crea un mecanismo de interpretación de datos que se conoce como Calculadora Automática de Secuencia Controlada o como Harvard Mark I.

Es a partir de esta máquina que logra independizarse el procesamiento de la intervención del hombre, las órdenes de cálculo son codificadas y las computadora las interpreta y las ejecuta ya que está programada para conocer la secuencia de cálculos que debe realizar y ejecuta automáticamente todas las operaciones.

En 1940, los Dres. John Mauchly y J. Presper Eckert, crean la Eniac (Electronic Numerical Integrator and Computer) que es el primer computador absolutamente electrónico que se fabrica.

La diferencia entre esta máquina y las anteriores radica en que tanto su fuente de poder como el proceso de cálculo es electrónico, mientras que en las electromecánicas solo la fuente de poder es eléctrica ya que los cálculos se efectúan por combinaciones de distintos engranajes. El antecedente directo de este computador fueron los trabajos de John Atanasoff y Clifford Berry, quienes concibieron el rpimer prototipo de máquina absolutamente electrónica en 1938.

Tanto esa máquina como las computadoras digitales de programa almacenado como la Edsac (Electronic Delayed Storage Automatic Computer) de la Universidad de Cambridge; la Ednac (Electronic Discrete Variable Automatic Computer) de la Universidad de Pensylvania; la Ace (Automatic Calculating Engine), y otras, responden en lo atinente a su inspiración lógica a los principios enunciados en el libro "Discusión preliminar del proyecto lógico de un instrumento de cálculo electrónico" de Von Neumann, Herman Goldstine y Arthur Burks, donde plantearon lo que constituye el concepto básico sobre el que se diseñaron, todas las computadoras electrónicas posteriores. Básicamente proponen que los códigos para las instrucciones que la calculadora debía efectuar deberían ser almacenados dentro de la propia memoria de la máquina, o sea que en la memoria destinada a los datos numéricos también se almacenaran las instrucciones que se debían efectuar asignando a cada una un código numérico. Gracias a Von Neumann, los cables elementos "duros" que indicaban las operaciones, fueron reemplazados por simples códigos numéricos, elementos más tenues, más "blandos" que podían reacomodarse para cada caso con mucha mayor flexibilidad, nacía el soft (blando)-ware por oposición al hard (duro)-ware.

No puede omitirse considerar en esta apretada síntesis, la enorme contribución de Claude Shannon, ingeniero electrónico norteamericano quien crea la teoría de la información, haciendo notar que las operaciones de la lógica deductiva que ideara Boole pueden ser tratadas utilizando la representación de los números en base dos. En 1948 publica su obra cumbre "Sobre una teoría matemática de la información" que diera lugar a un profuso desarrollo posterior.

8. CONTINUACION. DEFINICION

Desde la irrupción del computador electrónico son múltiples las definiciones que se han brindado del mismo, hay quienes lo caracterizan como una máquina que puede aceptar datos en una forma prescrita, procesarlos y proporcionar los datos del proceso en un formato especificado, ya sea en forma de información o de señales, para controlar automáticamente otras máquinas u otro proceso.

Otros prefieren caracterizarlo como una máquina capaz de aceptar datos de entrada, efectuar con ellos operaciones lógicas y aritméticas y proporcionar la información resultante a través de un medio de salida, todo ello sin la intervención de un operador humano y bajo el control de un programa de instrucciones previamente almacenado en el propio computador.

Finalmente si se prefiere, es un sistema electrónico rápido y exacto que manipula símbolos (o datos) y que está diseñado para aceptar datos de entrada, procesarlos y producir salidas (resultados) bajo la dirección de un programa de instrucciones almacenado en su memoria.

De las definiciones suministradas, fácilmente se deduce que todos los autores hacen especial enfásis en las siguientes características: se trata de una máquina automática; acepta datos a través de una unidad de entrada; los datos son procesados por una Unidad Central de Proceso (UCP) o bien son almacenados en la memoria para su posterior procesamiento; los resultados se aplican a una unidad de salida. Debe tenerse presente además que las instrucciones se dan al computador a través de un programa.

9. CONTINUACION. GENERACIONES

Con el término generaciones se comprende las características fundamentales que han presentado los computadores a lo largo de su evolución.

Básicamente y tomando en cuenta el tipo de componentes electrónicos empleados en los equipos físicos puede afirmarse que la Primera Generación de computadores se caracterizó por el empleo de tubos de vacío, lo que determinaba elevados consumos de corriente, que el tamaño de las máquinas fuera considerable y que el período de vida útil de las mismas fuera breve. Eran equipos lentos y necesitaban equipos de aire acondicionado complejos y costosos.

Máquinas de esta generación fueron la Eniac, la Edsac, la Edvac, la Univac I (esta máquina producida en serie es considerada la primera de tipo comercial) y la IBM 650. El auge de estos computadores se produjo en la década de 1950.

En 1958 nace la segunda generación de computadores, caracterizada por la sustitución de los tubos de vacío por transitores. El empleo de éstos determinó que el consumo de corriente fuera mucho menor, y que el tamaño de las máquinas disminuyera sensiblemente. El período de vida útil aumenta sustancialmente en virtud de que la vida de los elementos constitutivos del transistor, es prácticamente ilimitada.

Esta generación además se caracteriza por el comienzo del empleo de lenguajes de alto nivel en el procesamiento de datos. Disminuyen los requisitos relativos al aire acondicionado y mejora la fiabilidad, ya que los equipos de la primera generación presentaban frecuentes fallos de válvulas, lo que ocasionaba permanentes averías y altos costos de mantenimiento.

Empleaban memorias de núcleos magnéticos de alta velocidad, equipos periféricos y el almacenamiento se realizaba en discos.

Ejemplos de computadores de esta generación son el IBM 1401 y el Control Data 6600.

La aparición del IBM 360 en 1964, es considerada como el inicio de la tercera generación. La característica fundamental de esta generación es el empleo de los circuitos integrados (chips), pequeñas placas de silicio del tamaño de una moneda. Nuevamente se produce una reducción considerable del tamaño de las máquinas y en el consumo de energía. Nace la multiprogramación, el teleproceso, generalizándose el empleo de los lenguajes de alto nivel como Fortran y Cobol.

Para algunos autores la IBM 370 marca el inicio de la denominada cuarta generación. Comienza a desecharse el procesamiento por lotes.

La quinta generación, nace a fines de los años 70 con el lanzamiento de los microcomputadores y los ordenadores personales, cuya evolución ha sido permanente hasta nuestros días. Los constantes adelantes en materia electrónica y especialmente en los circuitos integrados, han disparado un proceso de cambio permanente, sucediéndose las series y modelos de computadores a una velocidad vertiginosa. Continuamente aumentan la capacidad y la potencia de los equipos, al tiempo que los precios en función de una dramática competencia se han reducido considerablemente.

Dado el progreso vertiginoso logrado en la historia relativamente breve de las computadoras electrónicas, no es aventurado asegurar que las predicciones más fantásticas de la actualidad, pueden con el tiempo, resultar conservadoras.

10.CONTINUACION. CLASIFICACION

Es unánime clasificar los computadores en tres categorías pricipales según su modo de operación: digitales, analógicos e híbridos.

Un ordenador digital es una máquina apta para efectuar operaciones con datos representados en forma digital o numérica, es decir datos que se representan como una serie de elementos discretos organizados, o dispuestos en forma codificada para representar números. Básicamente es aquél que cuenta directamente los números.

Los ordenadores analógicos, son máquinas proyectadas para realizar funciones aritméticas con los números y donde éstos se representan por alguna cantidad física. . Sintéticamente son aquéllos que miden magnitudes físicas.

Finalmente, bajo la denominación de computadores híbridos, se comprende a cualquier sistema de ordenador mixto en que se combinan dispositivos de cálculo analógicos y digitales.

Los ordenadores digitales se caracterizan por funcionar secuencialmente, es decir instrucción por instrucción, en tanto que los analógicos actúan de manera simultánea, por ello éstos resuelven cualquier problema con mayor rapidez que aquéllos, pero con márgenes de errores mucho mayores.

Otra clasificación de los computadores se realiza en función de su propósito. Es así que se distingue entre los computadores de propósito general que son aquéllos que pueden ser usados para cualquier tipo de proceso de datos, de los de propósito especial que solo pueden ser usados en aplicaciones determinadas.

La clasificación por tamaño ha sido casi abandonada, ya que, actualmente existen máquinas que por tamaño físico son pequeñas pero son consideradas grandes por su capacidad de memoria.

11. CONTINUACION. ESTRUCTURA. HARDWARE

La expresión "hardware", suele utilizarse para designar el soporte físico de un sistema informático, o sea, todos los materiales que lo componen, como la propia computadora, los dispositivos externos, los cables, los soportes de información y en definitiva todos aquéllos elementos que tienen entidad física. Puede sostenerse que es todo lo visible y lo tangible.

Sintéticamente un computador se compone de:

Dispositivos de Entrada. Son aquéllos destinados a introducir los datos e instrucciones en el computador. Constituyen dispositivos de entrada por ejemplo:

Teclado. Es el dispositivo más comúnmente utilizado y se encuentra en todos los equipos. Cada tecla corresponde a uno o varios caracteres, funciones u órdenes.

Mouse o ratón. Se trata de un dispositivo que debe su denominación a su forma y que se utiliza arrastrándolo sobre una superficie denominada path para maniobrar en la pantalla del monitor. Es apto para introducir información gráfica o seleccionar coordenada (x, y) de una pantalla.

 

Lápiz óptico. Tiene una forma a una pluma o lápiz grueso de uno de cuyos extremos sale un cable con un conector para unirlo a un monitor de pantalla. Para su empleo se requiere de un software especial. Aplicándolo a la pantalla del monitor se puede acceder a los distintos comandos.

Screen touch o pantalla sensible al tacto. Se trata de una pantalla de caracteres que puede detectar las coordenadas (x,y) de la zona de la propia pantalla donde se aplica una presión (Por ej. Un dedo).

 

Entrada de voz o palabra. Es un dispositivo que convierte la voz de cualquier persona en una señal digital. Estos dispositivos aún no están muy desarrollados.

Lector de Código de Barras. En el envase de los productos se imprime una etiqueta conteniendo información sobre los mismos según un código formado por un conjunto de barras separadas por zonas en blanco. Su uso es masivo a nivel comercial, especialmente en almacenes y supermercados.

 

Tableta gráfica, Tabla digitalizadora o digitalizador. Permiten transferir directamente al computador gráficos, planos, mapas, figuras o dibujos en general.

Scanner de imágenes para digitalización de documentos. Transforma el contenido de una página (documento, fotografía, infografía, gráficos, etc.) en una señal eléctrica.

Lector óptico de marcas u OMR (Optical Mark Reader). Acepta información manuscrita transformándola en datos binarios inteligibles por el computador.

Detector de caracteres magnetizables. Los caracteres magnetizables se utilizan en talones y cheques bancarios, etiquetas de medicamentos, etc.

Lector óptico de caracteres (OCR: Optical Character Reader). Puede detectar caracteres (alfabéticos y numéricos) o bien impresos, mecanografiados o manuscritos.

Palanca manual de control o (Joystick). Es apta para los juegos electrónicos.

Dispositivos de procesamiento. La Unidad Central de Proceso (UCP) controla el flujo de datos (entrada y salida), la ejecución de las instrucciones de los programas sobre los datos y realiza todos los cálculos. Es el "cerebro" de la computadora y está compuesta de:

la Unidad de Control. Es el núcleo de la UCP, gobernando todas las actividades de la computadora.

La Unidad Aritmético-Lógica. Realiza cálculos y operaciones lógicas (comparaciones).

 

Area de almacenamiento primario. Brinda al procesador almacenamiento temporal para programas y datos. Existen dos tipos de memoria primaria: la ROM (Read Only Memory), que es una memoria de exclusiva lectura en la que se almacenan de modo permanente y sin posibilidad alguna de modificación, programas y datos que necesita el computador. Por ejemplo: las instrucciones básicas para arrancar una computadora se encuentran en esta área de almacenamiento; la RAM (Random Acces Memory), o memoria de acceso aleatorio, permite almacenar datos de entrada, instrucciones de los programas que se están ejecutando en un momento dado, los resultados del procesamiento y los datos que se preparan para la salida. Es volátil.

Almacenamiento secundario. Es un medio de almacenamiento definitivo y no volátil. Actualmente son considerados dispositivos de este tipo:

El almacenamiento magnético (discos flexibles, discos duros, cintas magnéticas o cartuchos).

El almacenamiento óptico (CD-ROM o Compact Disc-Read Only Memory y Worm o Write Once, Read Many Times).

 

El almacenamiento en medios magnético-ópticos (WMRA o Write Many, Read Always). Este tipo de almacenamiento presenta como ventaja que es regrabable como los magnéticos con la capacidad de almacenamiento de los ópticos.

Dispositivos de salida. Son los responsables de enviar respuestas al exterior de la computadora. Por ejemplo: monitores, impresoras, módems, sistemas de sonido, plotters, etc.

 

12. CONTINUACION. TIPOS

En la actualidad existen básicamente cuatro tipos de computadoras:

Las más potentes se denominan supercomputadoras. Normalmente este tipo de máquinas se utilizan en aplicaciones de enorme costo e involucran proyectos de gran alcance, que necesitan grandes velocidades de procesamiento para realizar cálculos. Prácticamente no existen en el circuito comercial. Un ejemplo de este tipo de computadoras es la Cray.

Las macrocomputadoras, son usualmente los equipos más potentes que se comercializan en el mercado mundial. Están diseñadas para manejar grandes cantidades de datos, pero su potencia de cálculo es inferior a la de las anteriores. Soportan gran número de terminales o estaciones de trabajo y pueden intervenir en procesos distribuidos.

Las minicomputadoras, son máquinas de tipo medio, con capacidad de proceso menor a las anteriores, capaces de manejar varias unidades de entrada y de salida al igual que las anteriores, pero en menor número.

Las microcomputadoras son máquinas cuyo funcionamiento interno se basa en el uso de un microprocesador, cubriendo la gama de necesidades más baja del mercado.

Puede distinguirse dentro de las microcomputadoras las: Estaciones de Trabajo (Workstation), que son equipos de gran potencia y las Computadoras Personales (PC o PS), que son pequeñas computadoras que se encuentran en los hogares, oficinas, etc. Existen múltiples tipos y tamaños de estas máquinas.

13.- CONTINUACION. SOFTWARE

Un computador no puede utilizarse si no es por medio de un programa. Un programa es un conjunto ordenado de instrucciones que lleva al computador a realizar un tratamiento dado.

El software, soporte lógico o logical es el conjunto de programas ejecutables por el computador. Es incorporal o inmaterial por oposición al hardware. Es importante destacar que el programa es uno de los componentes del software, sin duda el más importante, pero no el único como veremos luego.

La Oficina Internacional de la Organización Mundial de la Propiedad Intelectual (O.M.P.I.) ha caracterizado al Programa de computadora como un conjunto de instrucciones que, una vez incorporado a un soporte legible por máquina, pueda hacer que una máquina capaz de procesar información, indique, realice u obtenga una función, una tarea o un resultado específicos.

Se clasifica en:

Sistemas operativos. Bajo esta denominación se incluye a aquéllos programas que gestionan y organizan todas las actividades que realizan los computadores. Ejemplo de sistemas operativos son: Unix, Windows, Windows NT, MS-DOS, OS/2, por citar los más populares.

Lenguajes de programación. Indican al computador los trabajos a efectuar y como hacerlo. Se clasifican en lenguajes de alto nivel y de bajo nivel. Ejemplo de este tipo de programas de alto nivel son: C, Cobol, Basic, Fortran, Pascal, Assembler, PL1, RPG, ADA, Prolog, Lisp, etc. En estos lenguajes una sola instrucción puede ser equivalente a miles en código de máquina, que es muy próximo al utilizado por los lenguajes de bajo nivel. Estos últimos en consecuencia pueden facilitar la creación de programas rápidos y potentes, pero de desarrollo tedioso, complejo y de difícil aprendizaje.

Como el computador puede interprertar y ejecutar únicamente instrucciones en código de máquina, existen programas denominados "traductores" o "compiladores" cuya función es traducir los programas escritos en los lenguajes de programación a lenguaje de máquina. El programas escrito en un lenguaje de programación se denomina programa fuente, en tanto el denominado programa objeto es aquél luego de traducido a lenguaje de máquina. Solo este último es ejecutable por la máquina.

En materia de lenguajes de programación, suelen distinguirse cuatro generaciones:

Como lenguajes de primera generación se reconoce a los lenguajes de máquina. Esta etapa abarca el período de nacimiento del computador, hasta principios de la década del 50.

La segunda generación se caracteriza por la aparición de los lenguajes ensambladores, generadores de programas y rutinas interpretativas. (1949-1956). Por ejemplo:

Los lenguajes de tercera generación son los denominados imperativos o de alto nivel clásicos. (1954 a la actualidad).

Los lenguajes de cuarta generación incluyen los denominados lenguajes de programación lógica, los funcionales y los dirigidos a objetos. También se incluye en esta categoría, también denominada "4G" a lenguajes para uso de paquetes comerciales concretos como Dbase, Oracle, Informix, etc.

Software de Uso General. Bajo esta denominación se incluyen aquéllas aplicaciones específicamente orientadas a los usuarios. Por ejemplo: los procesadores de texto, las hojas de cálculo, las bases de datos, etc.

Software de aplicación. Es aquél concebido y diseñado para una aplicación concreta. Se lo suele denominar "a medida", ya que tiende a ser utilizado para una actividad determinada (industrial, comercial, etc)