El Estado, una
Maquinaria “implacable” (funciona como un
algoritmo)
La pregunta es.
¿Bajo qué directrices se diseñaría o funciona este Algoritmo?)
INTROCUCCIÓN
Este artículo pretende a ser una aproximación crítica a los valores que dice sostenerse en el Estado y cómo estos valores son traspolados a la práctica diaria de las actuaciones y decisiones de grandes compañías, corporaciones e incluso del propio Estado o de las personas que lo representan. Esta traspolación de valores se realiza por medio de una consecución de acciones definidas (que normalmente se estructuran y ordenan en fases) que determinan un resultado; a este proceso de consecución de órdenes/actos que debemos realizar y que seguiremos para conseguir un resultado “buscado” según nuestros intereses se le llama en el mundo de las matemáticas: algoritmo.
El algoritmo se ha venido desarrollando desde el pasado cuando aún no se le hubiera puesto nombre, como un método estructurado en fases que desde el siglo pasado se aplica ya bajo esa denominación (especialmente en el mundo de la informática) para muchos fines que ya no solo incluyen el ámbito de la programación o computación, sino que siendo los algoritmos una “representación” del trayecto que debemos recorrer para alcanzar un fin u objetivo, se aplica en multitud de ámbitos para obtienen infinidad de datos sobre cualquier aspecto que se analice del aparente “comportamiento” o “fenómenos de respuesta” del mundo que nos rodea y que después clasificarse y estructurarse, se obtienen “perfiles/rasgos” definitorios que se pueden agrupar/clasificar según los aspectos que nos puedan resultar útiles para un fin determinado, que puede ser , por ejemplo, comercial; pues aparece la informática (como un instrumento/herramienta diseñado también con algoritmos), cuyo objetivo es la búsqueda y clasificación de datos que se ordenan bajo cualquier criterio que deseemos (realizando esa tarea a una velocidad de búsqueda y clasificación que desborda la capacidad de cualquier cerebro humano que intentara realizarla por sus propios medios; y a mayor velocidad y capacidad de manejo de datos, mayor versatilidad para aplicar esos mismos resultados en cualquier ámbito de nuestra sociedad), por lo que interfiere de pleno (positiva/negativamente) en las vidas de los ciudadanos, acumulando mucha información sobre ellos (sobre cada uno de nosotros) con objetivos no siempre declarados, y para fines con los que los ciudadanos podrían no estar de acuerdo, podrían objetar en el diseño de los algoritmos que podrían vulnerar esos valores que consideramos Humanos/Constitucionales que no siempre se pueden definir como estrictamente mercantilistas y que ya se destinarían a seguir clasificando a los seres Humanos, a la Humanidad en general, para actuar sobre ella según sea los rasgos/perfiles que tuvieran en común y desde esos rasgos clasificar y conducir a cada grupo social hacia un destino que pudiéramos ignorar en razones de gestión social,cuyas mismas razones/decisiones se pueden hallar fuera de nuestras fronteras en países o corporaciones que poseyendo grandes sistemas de captación/detección/ clasificación de datos son capaces de gestionar información sobre miles de millones de personas en todo el mundo y estar en disposición de venderlos o usarlos para fines propios o gubernamentales, entrando ya en el ámbito de los Estados y de sus objetivos ya no solo sobre sus ciudadanos, sino en sus pugnas con otros Estados para liderar o seguir liderando el devenir de la Humanidad e imponiendo sus criterios sobre otros Estados por medio de la manipulación de sus ciudadanos.
Cuando introducimos la idea
de Algoritmo en el funcionamiento del Estado (al referirnos a la rigidez conque el Estado se puede mostrar cuando en
determinadas ocasiones se define en terminología de calle como “Maquinaria
Implacable”) sin duda estaríamos hablando de, alguna manera, de Control
Social, cada vez más perfeccionado. Por lo que no sabemos si su diseño tendrá
como resultado final la defensa prioritaria de los Valores Humanos o derivará
en otra nueva etapa social que no sea la esperada y anhelada por el conjunto
social. (y que pudiera derivar en cerrar el círculo entorno a determinadas
personas que se considerarían molestas, incómodas, o que su sola presencia
“cuestiona” nuestra perfecta visión o concepto particular de lo que debiera ser
nuestra sociedad; o por el contrario, si la respuesta y consciencia social
determinará su uso para la tolerancia y asumir situaciones y soluciones. Porque
como alguien diría: Estados somos Todos – o debiéramos serlo).
En el caso del Estado, basta que un funcionario o varios,
converjan en una visión de prejuicio “de los admitidos por la sociedad” para que hagan posible el “anormal”
desarrollo de la vida de las personas que posean ese perfil, haciendo posible
la existencia de una sociedad que se manifiesta en permanente actitud de prevención; hasta el
punto de llegar a expresarse como sociedad enferma o tóxica.
No es la sociedad la que establece esos prejuicios, sino que se
vienen instaurando desde la ignorancia de la propia sociedad en cómo se
establece el elitismo y cuáles son sus claves discriminatorias que les hacen
concebirse como tales élites y mantenerse en ellas; y sobre todo desde el
desconocimiento de algunos aspectos y versatilidades de la naturaleza humana
desde que nos hallamos más aislados en grandes urbes, donde apenas unos se
conocen con otros y la idea de compartir y apoyarse mutuamente (propia actitud de pequeñas poblaciones donde
todo el mundo s e conocía) viene desapareciendo.
Paradójicamente es el propio Estado quien establece esos
prejuicios en la sociedad; son más bien aquellos que siendo personas y
trabajando para el Estado y tiendo potestades de ser “herramientas” a veces
esenciales del Estado, en el desarrollo de sus roles profesionales, los
potencia y los prolonga en el tiempo (haciéndolos
concebir sus prejuicios como elementos esenciales, como axiomas para facilitar
la comunicación/distante con personas no realmente expertas o conocedoras de
ciertas materias consideradas como “conocimientos científicos” tal y como esos
grupos las conciben como élite de técnicos/especialistas; haciendo posible que cuestiones a asumir,
abordar, resolver con sentido común y tolerancia acaben en apariencia compleja
sujetas a muchos factores y acaben por ser concebidas como complejidad
inabordable por medio de la instauración del “prejuicio” como elemento
definitorio, prejuicio que se presenta desde una definición “simple” (pero a la
vez indefinida, criptica, e incluso oscura) imposible de abordar/gestionar si
es creída por el resto de la sociedad) haciendo de los prejuicios una
realidad y un elemento fundamental y básico en
la comunicación/relación entre sus propios profesionales (y con el resto
de la sociedad) que al servicio del Estado trabajan en distintos ámbitos que
son de su competencia, a veces exclusiva; iniciándose estos prejuicios en los
procesos formativos (escuelas,
guarderías, Institutos, Universidad…) donde se formarán y capacitarán las
personas que serán seleccionas en procesos de cooptación para asumir funciones
y roles en representación del propio Estado o como representantes del mismo;
extendiéndose esos prejuicios a todo el ámbito del propio Estado que, por
definición del papel de Estado, lo abarca absolutamente todo: Formación e Información, las Ciencias
en todos sus ámbitos, el mundo del trabajo, el mundo del comercio, el mundo de
las comunicaciones, el mundo de la
Sanidad, el mundo de la Justicia y del Derecho – que siempre le fue el más propio – mundo consecuente del patrimonio
de la violencia en todas sus maneras y formas de expresión, pues en último
caso, esa violencia será expresada por personas físicas investidas de la
representación del propio Estado y sujetas a condición humana – y la propia condición humana, así modelada
por el propio Estado – que es quien
posee todos los medios e instrumentos para tal fin.
Todo ello es posible en un proceso continuo de formación/información
sobre nuevas reglas sociales (donde los
valores esenciales que parecían asentados y predominantes objetivos sociales,
mutan y ceden el paso a otros criterios y valores), en proceso continuo de cambio y limitaciones súbitas e
inesperadas para las que la sociedad (como
las que ahora vivimos) a la que
siempre se le dijo que vivía en un Estado o Estados que garantizaban las
libertades públicas y personales, bajo valores inamovibles y permanentes
señalados por la Constitución o Constituciones que toman todas ellas
referencias en la Declaración de los Derechos Humanos (su desarrollo), y que
por lo tanto las personas tenían derecho a vivir (y concebir ese derecho en un
Estado de hombres y mujeres libres) y consecuentemente y exclusivamente por
ello en un Estado de libertad o que a ella aspira.
Sin embargo, dependiendo el
Estado de sus propios cuerpos profesionales – cooptado en razones de Estado no
siempre transparentes a los principios Constitucionales - hace posible que exista y se prolongue la
existencia de una sociedad, en muchos de
sus rasgos sociales, “enferma e incluso tóxica” por no saber “a qué atenerse”
ante su propia y misma sociedad que permite que su propio Estado no se
configure en sus miembros y cuerpo en la lealtad a esos valores que se dice que
porta nuestra Constitución (constituida
en referencia a los Derechos Humanos y su desarrollo) y tener que
desarrollar sus vidas al criterio del prejuicio del funcionario o funcionarios que
en un momento dado pudiera tener potestad sobre un asunto concreto y
trascendental de la vida de un ciudadano
cualquiera.
La vinculación entre “prejuicio” (propio de actitud de elitismo) y algoritmo queda así vislumbrada en
esta introducción.
Para facilitar entender el objetivo de este artículo se opta por
abordar el concepto del algoritmo, por ser ahora el término gramatical, detrás
del cual, se hallan conceptos y procedimientos que si ya antes condicionaban en el pasado parte de nuestras
actividades diarias como personas o como ciudadanos, se perfilan ya, los
procedimientos algorítmicos, como los instrumentos tecnológicos sistematizados,
destinados a abarcan plenamente nuestras vidas, por lo que se muestra también
como factor limitante para cualquier actividad cotidiana como ciudadanos. Si del Estado, de nuestro Estado, se
dice que es una “maquinaria implacable” lo es y será en determinada ocasiones,
porque está sujeto a procedimientos (Procedimiento Administrativo) que no es
otra cosa que una relación de preceptos y disposiciones que se pueden
estructurar en fases y consecuentemente constituir un algoritmo destinado a un
fin concreto (dar una licencia urbanística, imponer una multa de tráfico, solicitar
un permiso de veladores, o un empadronamiento, o una licencia de actividad
comercial o industrial…si nos referimos al Estado próximo como Administración
Local); pero que también se halla ese algoritmo en la consecución de
conocimientos reconocidos por el Estado que facultan para el desarrollo de una
vida profesional que señalará el nivel de ingresos de las personas (guardería, estudios primarios, secundarios,
Instituto, Universidad y Máster) ya en esta etapa de adaptación a la
sociedad que suponen los procesos formativos que se ajustan a las disposiciones
del Estado se inician los procesos destinados a establecer distinciones
sociales y clasificaciones de grupos sociales e individuos en periodo de
formación en base a criterios que pueden ser elitistas y basados en prejuicios
donde la estigmatización ( que puede
llegar a ser realizada por los
propios profesionales de la enseñanza o bajo las directrices del propio Estado
que impulsa los criterios de formación, según el tipo de régimen político
establecido) hará posible la instauración de otro elemento esencial y
propio de la naturaleza del Estado, el uso del castigo y de ciertas formas de
coacción/violencia que ya conectarán de pleno con el concepto de “Seguridad”
propia del Estado, (definir a las personas como “carne de cañón”,
“contestatarios”, “rebeldes”) y la aparición o prevalencia de otras formas de
violencia social dentro del ambiente educativo que buscan el “aislamiento
social” de ciertos perfiles de personas/alumnos “vulnerables” en razón de mostrar
la fortaleza de brutalidad “de patio de colegio” que ahora se expresa en redes
sociales y en la calle de manera muy violenta, que plasman, a la definitiva,
imponer una jerarquía a cuya cúspide se hallara la visión elitista y de
prejuicio, dando lugar al escenario social donde se señalan los valores
dominantes que determinarán los cambios sociales de nuestra sociedad en un
inmediato futuro y siendo el preámbulo de la sociedad real que existirá en el
mundo de los adultos; sobre todo si es siendo que la permite o tolera; y
consecuentemente, desde esa etapa de formación ya aparece la vinculación de valores y
conceptos que sí importan a la Seguridad del Estado en la relación y evolución
de sus individuos en el futuro (por lo
que también aquí existe una vinculación algorítmica que se define por el
prejuicio, donde el prejuicio define al algoritmo y consecuentemente el futuro
de las personas).
Es decir, el algoritmo que se define, no actúa como elemento que muestra datos simplemente, sino que va más allá definiendo el futuro de cada persona y con ello determinándolo con efectividad desde los criterios y valores educativos en cada etapa histórico/política de una sociedad concreta y de los prejuicios dominantes en cada una de esas etapas, de acuerdo al nivel cultural de la propia sociedad.
----------------------------------------------------------
Un algoritmo es la representación matemática o gráfica, concebido
previamente en un proceso mental, destinado a resolver o encaminar la solución
de un problema o un procedimiento para conseguir un fin determinado.
El primer diagrama (VLampFlowchart) señala los pasos a realizar si una lámpara no funciona. Y el segundo diagrama representa un proceso de actividades para un bucle (El bucle for es una estructura de control en programación en la que se puede indicar de antemano el número máximo de iteraciones
(Diagrama deAda Lovelace de la "nota G", el primer algoritmo informático publicado)
Augusta Ada King, condesa de Lovelace (Londres, 10 de diciembre de 1815-íd., 27 de noviembre de 1852), registrada al nacer como Augusta Ada Byron y
conocida habitualmente como Ada Lovelace, fue una matemática y escritora británica,
célebre sobre todo por su trabajo acerca de la calculadora de uso general
de Charles Babbage, la denominada máquina analítica.
Entre sus notas sobre la máquina, se encuentra lo que se reconoce hoy como el
primer algoritmo destinado a ser procesado por una máquina, por lo
que se la considera como la primera programadora de ordenadores.123
Diagrama Pseudológico:
El pseudocódigo
(falso lenguaje, el prefijo pseudo significa falso)
es una descripción de alto nivel de un algoritmo que emplea una mezcla de
lenguaje natural con algunas convenciones sintácticas propias de lenguajes de
programación, como asignaciones, ciclos y condicionales, aunque no está regido
por ningún estándar.
El pseudocódigo está pensado para facilitar a las
personas el entendimiento de un algoritmo, y por lo tanto puede omitir detalles
irrelevantes que son necesarios en una implementación. Programadores diferentes
suelen utilizar convenciones distintas, que pueden estar basadas en la sintaxis
de lenguajes de programación concretos. Sin embargo, el pseudocódigo, en
general, es comprensible sin necesidad de conocer o utilizar un entorno de
programación específico, y es a la vez suficientemente estructurado para que su
implementación se pueda hacer directamente a partir de él.
Así el pseudocódigo cumple con las funciones antes
mencionadas para representar algo abstracto los protocolos son los lenguajes
para la programación. Busque fuentes más precisas para tener mayor comprensión
del tema.
Los algoritmos, aunque los veamos expresados desde la modernidad de los procesos industriales como diagramas que simplifican la compresión de un proceso de fabricación industrial en el ámbito laboral o de procedimientos sencillos para tratar ciertos asuntos en la Administración del Estado, o en el ámbito informático en sus aspectos más sencillos, tiene muchos años de existencia; pues a la definitiva no señala, en sus aspectos más sencillo, que una ruta que plasmamos como itinerario para realizar un objetivo cualquiera y que de alguna manera representa gráficamente un proceso mental ya aprendido por la experiencia, que se plasma por medio de la escritura o símbolos señalando un recorrido ordenado que asegura la llegada una resolución, aunque esta resolución no sea ni completa ni definitiva.
El concepto de algoritmo existe desde la
antigüedad. Los antiguos matemáticos babilónicos utilizaron algoritmos aritméticos , como un algoritmo de división .
C. 2500 aC y matemáticos egipcios c. 1550
antes de Cristo. [10] Los matemáticos griegos utilizaron más
tarde algoritmos en el 240 a. C. en el tamiz de Eratóstenes para
encontrar números primos, y el algoritmo euclidiano para
encontrar el máximo común divisor de
dos números. [11] Matemáticos árabes como al-Kindi en el siglo IX
utilizaron algoritmos criptográficos para descifrar códigos. , basado en análisis de frecuencia . [12]
La palabra algoritmo se deriva del
nombre del matemático persa del siglo IX Muḥammad
ibn Mūsā al-Khwārizmī , cuya nisba (identificándolo como de Khwarazm ) fue latinizado como Algoritmi
( arabizado persa الخوارزمی c. 780-850). [13] [14]
Muḥammad
ibn Mūsā al-Khwārizmī fue un matemático, astrónomo , geógrafo y erudito en la Casa de la Sabiduría en Bagdad , cuyo nombre significa 'el nativo
de Khwarazm ', una región que formaba parte
del Gran Irán y ahora se encuentra en Uzbekistán . [15] [16] Hacia el año 825, al-Khwarizmi
escribió un tratado en árabe sobre el sistema
numérico hindú-árabe , que fue traducido al latín durante
el siglo XII. El manuscrito comienza con la frase Dixit Algorizmi('Así
habló Al-Khwarizmi'), donde "Algorizmi" era la latinización del traductor
del nombre de Al-Khwarizmi. [17] Al-Khwarizmi fue el matemático más
leído en Europa a finales de la Edad Media, principalmente a través de otro de
sus libros, el Álgebra . [18] En latín medieval tardío, algorismus ,
' algorism ' en inglés, la corrupción de su
nombre, simplemente significaba el "sistema numérico decimal". [19] En el siglo XV, bajo la influencia de
la palabra griega ἀριθμός ( arithmos ), 'número' ( cf. 'aritmética'),
la palabra latina se modificó a algorítmo, y el término inglés
correspondiente 'algoritmo' se atestigua por primera vez en el siglo
XVII; el sentido moderno se introdujo en el siglo XIX. [20]
En inglés, se utilizó por primera vez alrededor de
1230 y luego por Chaucer en
1391. El inglés adoptó el término francés, pero no fue hasta finales del siglo
XIX que "algoritmo" adquirió el significado que tiene en el inglés
moderno. [21]
El algoritmo es, en última instancia, una representación grafica de un proceso mental de elaboración y ordenación de tareas en la finalidad de conseguir un objetivo o resultado concreto. De ahí que cuando se diseñaran las primeras máquinas de computación, como ahora las concebimos, nos venga a la memoria la película “Descifrando Enigma” que representa a la vez la tragedia de Alan Turing - en su condición social de ser rechazado por prejuicios y sufrir penalidades por ello; o la peli “Juegos de Guerra” donde la hipotética curiosidad de un joven que explora por su cuenta la informática hace posible concebir que en el cálculo de probabilidades realizada por una computadora en el momento real de darse la orden de iniciar una guerra nuclear, calculara matemáticamente (con expresión visual de todas las posibilidades estratégicas para desencadenarla y ganarla) llegara a la conclusión de que nadie sobreviviría, bloqueándose el sistema diseñado para iniciarla. Esta película era un reflejo del súbito cambio generacional que observarían los padres cuando los hijos aprenden un lenguaje nuevo accediendo a otros mundos/espacios que resultan desconocidos, lejanos, ignorados y propios de la seguridad del Estado. Un reflejo de una situación real y compleja por lo general realizada por jóvenes como si se tratara de un juego de posibilidades; pero que alarmara al mundo de los adultos de manera transversal.
Una Computadora es, en esencia, una máquina de calculo que
funciona siguiendo un procedimiento
lógico definido en un proceso algorítmico y que es reflejo de nuestra
mente; por lo cual, la computación (lo que llamamos ordenadores) viene de
antiguo:
Definición:
En el español que se habla en
América, así como el portugués,
el alemán y
el neerlandés, se
utilizan términos derivados del inglés computer y este a su vez
del latín computare «calcular». A partir
de la raíz latina, también surgieron computator (lit.,
«computador»; c. 1600), ‘el que calcula’, y computist («computista»;
finales del s. xiv), ‘experto
en cómputo calendárico o cronológico’.8
Según el Oxford English Dictionary,
el primer uso conocido de la palabra computer en la lengua
inglesa se encuentra en el libro The Yong Mans Gleanings (1613),
del escritor Richard Braithwait, para referirse a un arithmetician (aritmético): «I haue [sic]
read the truest computer of Times, and the best Arithmetician that euer [sic]
breathed, and he reduceth thy dayes into a short number». Este término aludía a
un «computador humano», una persona que realizaba cálculos o cómputos. Computer continuó
con el mismo significado hasta mediados del siglo xx.9 A finales de este período, se contrataban a
mujeres como computadoras porque se les podían pagar menos que a sus colegas
masculinos.10 En 1943, la mayoría de las computadoras humanas
eran mujeres;11 para referirse a ellas existía la forma
femenina computress («computadora»), que con el tiempo se
cambió a programmer («programadora»).12
El Oxford
English Dictionary registra que, a finales del siglo xix, computer empezó a
utilizarse con el significado de «máquina calculadora».9 El uso moderno del término para «computador
electrónico digital programable» data de 1945, basándose en el concepto teórico
de máquina de Turing publicado
en 1937. ENIAC (1946), sigla de «computador e integrador
numérico electrónico» (Electronic Numerical Integrator And Computer),
generalmente se considera el primero de este tipo.8
La palabra española
«ordenador» proviene del término francés ordinateur y este a su vez
del término latino ordinator.13 En parte por cuestiones de mercadeo, puesto
que la descripción realizada por IBM para
su introducción en Francia en
1954 situaba las capacidades de actuación de la máquina cerca de la
omnipotencia, idea errónea que perdura hoy en día al considerar que la máquina universal de Turing es
capaz de computar absolutamente todo.14 En 1984, académicos franceses reconocieron,
en el debate Les jeunes, la technique et nous, que el uso de este
sustantivo es incorrecto, porque la función de un computador es procesar datos,
no dar órdenes.15 Mientras que otros, como el catedrático de
filología latina Jacques Perret, conocedores del origen religioso del término,
lo consideran más correcto que las alternativas.13 El uso de la palabra ordinateur se
ha exportado a los idiomas de España:
el aragonés,
el asturiano,
el gallego,
el castellano,
el catalán y
el euskera.
La computadora12 (del inglés: computer y este del latín: computare,3 ‘calcular’), también denominada computador41 u ordenador5 (del francés: ordinateur; y este del
latín: ordinator), es una máquina electrónica digital
programable que ejecuta una serie de comandos para procesar
los datos de entrada, obteniendo convenientemente
información que posteriormente se envía a las unidades de salida. Una
computadora está formada por numerosos circuitos integrados y
varios componentes de apoyo, extensión y accesorios, que en conjunto pueden
ejecutar tareas diversas con suma rapidez y bajo el control de un programa (software).
La constituyen dos partes esenciales, el hardware, que es su estructura física (circuitos electrónicos, cables, gabinete, teclado, etc.), y el software, que es su parte intangible (programas, datos, información, documentación, etc).
Una computadora es una máquina que puede programarse para realizar secuencias de operaciones aritméticas o lógicas de forma automática. Las computadoras modernas pueden realizar conjuntos genéricos de operaciones conocidas como programas . Estos programas permiten a las computadoras realizar una amplia gama de tareas. Un sistema informático es una computadora "completa" que incluye el hardware , el sistema operativo ( software principal ) y los equipos periféricos necesarios y utilizados para una operación "completa". Este término también puede referirse a un grupo de computadoras que están vinculadas y funcionan juntas, como una red de computadoras o grupo de computadoras .
Lejos de ser un invento de una persona en particular, la computadora es el resultado evolutivo de ideas de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación. Fue creada por un bien mayor debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores Konrad Zuse fue el primero en construir una computadora que funcionase. Lo hizo en el salón de la casa de sus padres en Berlín. Este ordenador podía guardar 64 palabras. Con el paso del tiempo se llegó a mejorar más que ahora. Guarda 500 millones de palabras con una capacidad de 30 GB.
Cronología[editar]
Los principales hitos en
la historia de la
computación, desde las primeras herramientas manuales para hacer
cálculos hasta las modernas computadoras de bolsillo.
·
500 a. C.: se utiliza el ábaco en antiguas civilizaciones como
la china o
la sumeria, la
primera herramienta para realizar sumas y restas.
·
Hacia 830: el
matemático e ingeniero persa Musa al-Juarismi desarrolló la teoría
del algoritmo, es decir, la resolución metódica de
problemas de álgebra y cálculo numérico mediante
una lista bien definida, ordenada y finita de operaciones.
·
1614: el escocés John Napier inventa
el logaritmo neperiano,
que consiguió simplificar el cálculo de multiplicaciones y divisiones
reduciéndolo a un cálculo con sumas y restas.
·
1620: el inglés Edmund Gunter inventa
la regla de cálculo,
instrumento manual utilizado desde entonces hasta la aparición de la
calculadora electrónica para hacer operaciones aritméticas.
·
1623: el alemán Wilhelm Schickard inventa la
primera máquina de calcular,
cuyo prototipo desapareció poco después.
·
1642: el científico y filósofo francés Blaise Pascal inventa una máquina de
sumar (la pascalina), que
utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares
originales.
·
1671: el filósofo y matemático alemán Gottfried Wilhelm
Leibniz inventa una máquina capaz de multiplicar y dividir.
·
1801: el francés Joseph Jacquard inventa
para su máquina de tejer brocados una tarjeta perforada que controla el patrón
de funcionamiento de la máquina, una idea que sería empleada más adelante por
los primeros computadores.
·
1833: el matemático e inventor británico Charles Babbage diseña e intenta
construir la primera computadora, de funcionamiento mecánico, a la que llamó la
«máquina analítica».
Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada
para hacer realidad su idea.
·
1841 : la matemática Ada Lovelace comienza a trabajar junto a
Babbage en lo que sería el primer algoritmo destinado a ser procesado por una
máquina, por lo que se la considera como la primera programadora de
computadores.
·
1890: el norteamericano Herman Hollerith inventa una máquina tabuladora aprovechando
algunas de las ideas de Babbage, que se utilizó para elaborar el censo
de Estados Unidos. Hollerith fundó posteriormente la compañía que después se
convertiría en IBM.
·
1893: el científico suizo Otto Steiger desarrolla la primera
calculadora automática que se fabricó y empleó a escala industrial, conocida
como la Millonaria.
·
1936: el matemático y computólogo inglés Alan Turing formaliza los conceptos de
algoritmo y de máquina de Turing,
que serían claves en el desarrollo de la computación moderna.
·
1938: el ingeniero alemán Konrad Zuse completa la Z1,
la primera computadora que se puede considerar como tal. De funcionamiento
electromecánico y utilizando relés, era programable (mediante cinta perforada)
y usaba sistema binario y lógica boleana. A ella le seguirían los modelos
mejorados Z2, Z3 y Z4.
·
1944: en Estados Unidos la empresa IBM construye la computadora
electromecánica Harvard Mark I,
diseñada por un equipo encabezado por Howard H. Aiken. Fue la primera computadora
creada en Estados Unidos.
·
1944: en Inglaterra se construyen los computadores Colossus (Colossus Mark I y Colossus
Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes
durante la Segunda Guerra Mundial.
·
1946: en la Universidad de Pensilvania se pone en funcionamiento la ENIAC (Electronic
Numerical Integrator And Calculator), que funcionaba a válvulas y fue la
primera computadora electrónica de propósito general.
·
1947: en los Laboratorios Bell, John Bardeen, Walter Houser
Brattain y William Shockley inventan el transistor.
·
1950: Kathleen Booth, crea el Lenguaje Ensamblador para hacer operaciones
en la computadora sin necesidad de cambiar los cables de conexión, sino a
través de tarjetas perforadoras (programa u operación guardada para usarla
cuando sea necesario) las cuales eran propensas a dañarse por esta razón, a
finales de este año se comienza a desarrollar el lenguaje de programación.
·
1951: comienza a operar la EDVAC,
concebida por John von Neumann,
que a diferencia de la ENIAC no era decimal, sino binaria, y tuvo el primer
programa diseñado para ser almacenado.
·
1953: IBM fabrica su primera computadora a
escala industrial, la IBM 650. Se amplía el
uso del lenguaje ensamblador para
la programación de
las computadoras. Las computadoras con transistores reemplazan a las de válvulas, marcando el comienzo de la segunda
generación de computadoras.
·
1957: Jack S. Kilby construye
el primer circuito integrado.
·
1964: la aparición del IBM 360 marca el comienzo de la tercera
generación de computadoras, en la que las placas de
circuito impreso con múltiples componentes elementales pasan a
ser reemplazadas con placas de circuitos integrados.
·
1965: Olivetti lanza, Programma 101, la primera computadora de
escritorio.
·
1971: Nicolet Instruments Corp. lanza al mercado la Nicolet 1080, una computadora de uso
científico basada en registros de 20 bits.
·
1971: Intel presenta el primer microprocesador comercial, el
primer chip:
el microprocesador Intel 4004.
·
1975: Bill Gates y Paul Allen fundan Microsoft.
·
1976: Steve Jobs , Steve Wozniak , Mike Markkula fundan Apple.
·
1977: Apple presenta el primer computador personal que
se vende a gran escala, el Apple II, desarrollado
por Steve Jobs y Steve Wozniak.
·
1981: se lanza al mercado el IBM PC, que se convertiría en un éxito
comercial, marcaría una revolución en el campo de la computación personal y
definiría nuevos estándares.
·
1982: Microsoft presenta
su sistema operativo MS-DOS, por encargo de IBM.
·
1983: ARPANET se separa de la red militar que la originó, pasando a un uso
civil y convirtiéndose así en el origen de Internet.
·
1983: Richard Stallman anuncia
públicamente el proyecto GNU.
·
1985: Microsoft presenta el sistema operativo Windows 1.0.
·
1990: Tim Berners-Lee idea
el hipertexto para crear el World Wide Web (www), una nueva manera de
interactuar con Internet.
·
1991: Linus Torvalds comenzó
a desarrollar Linux, un sistema operativo compatible con Unix.
·
2000: aparecen a comienzos del siglo XXI los computadores de bolsillo,
primeras PDA.
·
2007: presentación del primer iPhone,
por la empresa Apple, un teléfono inteligente o smartphone.
· 2016ː eclosión de la realidad virtual dirigida al gran público con
dispositivos de fabricantes como Oculus, HTC y Sony.
Componentes[editar]
Artículo principal: Arquitectura
de computadoras
Las tecnologías utilizadas en computadoras digitales
han evolucionado mucho desde la aparición de los primeros modelos en los años 1940, aunque la mayoría todavía utiliza la Arquitectura de von Neumann,
publicada por John von Neumann a
principios de esa década, que otros autores atribuyen a John Presper Eckert y John William Mauchly.
La arquitectura de
Von Neumann describe una computadora con cuatro (4) secciones principales:
la unidad aritmético lógica,
la unidad de control,
la memoria primaria, principal
o central, y los dispositivos de entrada y
salida (E/S). Estas partes están interconectadas por canales de
conductores denominados buses.
Sin embargo, para que entre la información en el sistema de
computación y se obtenga resultados, es preciso un leguaje concreto (cualquier lenguaje no es apto ni permitiría
poner en marcha un proceso de cálculo que muestre a base de unidades binarias
(BTIS – binarias significaría algo así como que la posición de un interruptor
de luz esté encendido o apagado, y que dependiendo del orden en que multitud de
interruptores estén encendidos o apagados, se concibe existencia de mensaje/información)
dando resultados tan complejos como procesar textos, hojas de cálculo, bases de
datos, diseños de dibujo industrial como AutoCad etc..
La programación de computadoras es el proceso de diseñar y construir un programa de computadora ejecutable para lograr un resultado
de computación específico o para
realizar una tarea en particular. Programación implica tareas como el
análisis, la generación de algoritmos , de
perfiles de precisión algoritmos y el consumo de recursos y la
implementación de algoritmos en un elegido lenguaje de
programación (comúnmente conocida como codificación ). [1] [2] El código fuente de un programa está escrito
en uno o más lenguajes que son inteligibles para los programadores , en lugar de código de máquina., que es ejecutado
directamente por la unidad
central de procesamiento . El propósito de la programación
es encontrar una secuencia de instrucciones que automatizarán el desempeño de
una tarea (que puede ser tan compleja como un sistema operativo ) en una computadora , a menudo para resolver un
problema dado. Por lo tanto, la programación competente generalmente
requiere experiencia en varios temas diferentes, incluido el conocimiento
del dominio de
la aplicación ,
algoritmos especializados y lógica formal .
Las tareas que acompañan y están relacionadas con la
programación incluyen pruebas , depuración , mantenimiento del código fuente , implementación de sistemas de compilación y administración de artefactos derivados ,
como el código de máquina de programas de computadora. Estos
pueden considerarse parte del proceso de programación, pero a menudo el
término desarrollo de
software se usa para este proceso más amplio con el término programación , implementación o codificación reservado
para la escritura real de código. La ingeniería de
software combina técnicas de ingeniería con prácticas de desarrollo de
software.La ingeniería inversa es
un proceso relacionado utilizado por diseñadores, analistas y programadores
para comprender y recrear / volver a implementar. [3]
Si el lenguaje que introducimos tiene algún “error” (cosa que suele ser común) los programas
darán fallos en algún momento y habrá que entrar en procesos de
limpieza/depuración para optimizarlo.
También hablamos del desarrollo de los sistemas de computación, desde los primeros diseños capaces de almacenar 60 palabras y que consideramos un gran avance hace bien poco tiempo hasta la actualidad.
Se puede establecer la similitud del sistema informático con el funcionamiento
del Cerebro Humano (pues es el cerebro
humano quien diseña los computadores y como tal limitación de nuestra condición
humana, solo podemos apelar a lo que ya conocemos para plasmarlo en el entorno
material de nuestro entorno desde lo que llamamos creatividad e innovación
plasmada en el mundo material en que vivimos) y de hecho, durante un tiempo
así se llamarían estas máquinas “Cerebros electrónicos”.
El símil se hallaría en que primero “evolucionan” en capacidad y
desarrollo desde una posición de salida, donde el ser humano y su cerebro/mente
llegan a este mundo y precisan ir captando información para estimular sus
capacidades de adaptación y desarrollo. Donde el lenguaje con que llega esa
información resulta esencial para su procesamiento posterior y consecuentemente
determina su resultado.
Esa tarea de transformar lo que llega del exterior para ser procesado por el cerebro es controlada o supervisada por la “mente” (que es cosa diferente del cerebro y que se considera, aunque teóricamente exista aún teorías diferentes) mente que estaría superponiéndose al cerebro, pero sin ser cerebro y que determina nuestra consciencia del entorno que nos rodea y consciencia de propia existencia. Cuya misión (en el lenguaje informático) sería aprender de sí mismo por medio de la información recibida y almacenada en la memoria; depurar errores y optimizar el sistema para seguir avanzando y desarrollándose.
La diferencia en un proceso de computarización y el cerebro/mente
humana se halla en que los sistemas algorítmicos introducidos en la máquina por
medio de un lenguaje determinado previamente, son conocidos por lo que si dan
error se pueden corregir desde la objetividad de reconocer el propio error
cometido en el momento de la programación (la
maquina no comete errores, “hace lo que le decimos que tiene que hacer”).
Y si aparecen fallos buscamos las incompatibilidades que pudieran haber en el funcionamiento de programas que hemos introducido e incluso podremos determinar la “·infectación”· del sistema porque alguien desde el exterior ha introducido (sin que lo supiéramos o advirtiéramos) un “código”, compatible con el lenguaje de la maquina, que altera el normal funcionamiento de la misma o simplemente traslada información sin que lo sepamos; o simplemente s e halla como un programa “dormido” a la espera de “recibir órdenes” (que no pudiéramos controlar como dueños de nuestro sistema de cálculo/ordenación) sin saber el objetivo de ello o simplemente para perjudicar el normal funcionamiento del sistema e incluso, en ocasiones, causar averías físicas del sistema. Es decir, daño real y constatable (que solo precisó para desencadenarse una orden codificada desde el exterior) o que simplemente espera a que al realizar una determinada tarea ese programa s e active y actúe secretamente.
Si establecemos que en nuestra sociedad el criterio de “ser
consecuente” (propio de los sistemas algorítmicos,
aritméticos, matemáticos que conforman las computadoras para obtener resultados
apropiados a la información que le dimos) en el ambiente humano ese criterio
de ser consecuente “no existe” o
toleramos que no exista el criterio de “ser consecuente” solemos ver de que lo
que se trata con ello es dominar, imponer por la fuerza, o buscar la sumisión,…
La sumisión no se considera un buen estado para el desarrollo de
nada positivo (y menos de la mente humana)
porque significa recibir y ejecutar órdenes sin atender más que a la voluntad
del ordenante que solo busca su propia satisfacción en que se realicen sus
deseos. Un personaje así, con ese lenguaje y criterio, no podría programar un
ordenador sin renunciar a ese lenguaje y sujetarse a los requisitos que precisa
un lenguaje coherente para realmente trasladar información y que pueda ser
procesada.
Ni
siquiera quien busca la sumisión le gusta ese estado para sí mismo; por lo cual,
desde el punto de vista aritmético, algebraico, matemático es un lenguaje
inviable para que un sistema concebido desde la lógica pueda funcionar
normalmente, o no producir errores, o simplemente no colapsar.
Decimos cuando un ordenador se “cuelga” (usando un término similar al quedarse “colgado” o bloqueado por una acumulación de ordenes consecutivas que el sistema no puede procesar y lo atasca) que hay que reiniciarlo, para liberarlo de ese atasco de órdenes.
Las computadoras han ido evolucionando en su capacidad de realizar
cálculos, desde los primeros logros de Konrad Zuse
que fue el primero en construir una computadora que funcionase. Lo hizo en el salón de la casa de sus padres en
Berlín. Este ordenador podía guardar 64 palabras. Con el paso del tiempo se
llegó a mejorar más que ahora. Guarda 500 millones de palabras con una
capacidad de 30 GB. Y ahora vemos el resultado que se alcanza en
complejidad, de lo cual solo vemos una parte de sus utilidades prácticas porque
han llegado a nosotros en forma de teléfonos móviles, email, tablet, redes
sociales,…. Y lo consideramos un medio más de una tecnología de la cual
desconocemos todo lo que realmente es relevante, que afecta ya a nuestras vidas
en lo más íntimo de nuestros hogares, de nuestras personas y nuestros
pensamientos e inclinaciones personales o sensibilidades (que incluso desconocemos de nosotros mismos) pero que son constantemente
analizadas en nuestras interacciones en el mundo de la informática cuando
usamos cualquiera de esos objetos que nos parecen un adelanto, y de los cuales
extraen esa información “consentida” para acceder a una aplicación cualesquiera
(que
parece “inocente”) pero que sale gratuita porque el precio que se paga por
ella son cuestiones que versan sobre la propia vida personal (desde hábitos como a qué hora estás activo,
por donde te mueves físicamente, qué cosas te interesan, qué prensa sueles
leer, qué artículos y sobre qué temas te resultan de interés, qué tipo de
relaciones sociales tienes, donde sueles viajar con frecuencia, … cuestiones sobre
la propia persona que ella misma suele desconocer o que considera de su propia
intimidad).
Es decir, cuando sale gratis un
producto, es porque el producto es la propia persona; el producto eres tú. Y la
información viaja y es clasificada a miles de km de distancia, aunque parte de
ella pueda quedarse más cerca de lo que se piensa y en manos de quien no
sabemos cómo interpreta los valores de nuestra propia sociedad, o cómo
interpreta nuestros propios valores y que si por esa interpretación que se
hiciera/hace de nuestras personas representamos o representaríamos un potencial
peligro para lo que alguien pudiera entender como seguridad del Estado.
Aún mayor el mayor peligro
estribaría, que siendo información íntima y sensible, no sabemos cómo sería
interpretada por un gobierno o un Estado que súbitamente cambiara los
parámetros y la prioridad de los valores por otros y en qué situación de
percepción y catalogación quedaría nuestras personas o nuestras familias en esa
nueva visión de Seguridad.
No hay comentarios:
Publicar un comentario