Mostrando entradas con la etiqueta Informática. Mostrar todas las entradas
Mostrando entradas con la etiqueta Informática. Mostrar todas las entradas

martes, 31 de octubre de 2023

DIGITALIZACIÓN. 1. Ordeno mi ordenador.

 

 
       Para bien y para mal, la digitalización forma parte “natural” de nuestro mundo y relaciones personales. Influye en todos los ámbitos imaginables. 


      Los sistemas informáticos permiten hacer pagos con un teléfono “móvil” y también que podamos ser estafados. Se usan para indagar en trazas de partículas elementales y también en el perfeccionamiento de armas de destrucción masiva.


La informatización de sistemas y vidas permea todo, desde stocks en supermercados, hasta la investigación de lenguajes arcaicos. Se habla de nativos e inmigrantes digitales. El caso es que quien no tenga cierto hábito con teclados puede pasarlo muy mal y cada vez peor en este siglo, tan parecido en todo lo demás, incluyendo guerras, a los precedentes.


Recuerdo que hace muchos años había visto en la Facultad de Ciencias de Santiago de Compostela un conglomerado de cables conectados de modo complicado. Alguien me dijo que era un cerebro electrónico. Por esa época, antes de entrar en la universidad, había oído que los estudiantes de ciencias aprendían un lenguaje extraño que se llamaba “Fortran IV”. Poco más tarde, no se hablaba de cerebros electrónicos, sino de computadores. También empezaron a sonar términos como “hardware” y “software”. La llegada de la microelectrónica, incluyendo el desarrollo maravilloso del transistor, supuso una revolución, al evitar el uso de válvulas de vacío en procesos de computación. Se eliminaban también las tarjetas perforadas en computación, aunque, en Oriente principalmente, se conservaban los ábacos.


   Es curioso ver cómo ha ido llamándose de diversos modos a lo que muchos denominamos ordenador. El diccionario de la R.A.E. ha seguido la propia evolución de tal artefacto y concibe ahora el propio término “ordenador”equivalente al previo, “computadora” o “máquina electrónica que, mediante determinados programas, permite almacenar y tratar información, y resolver problemas de diversa índole”. Nuestros ordenadores de sobremesa hacen ya mucho más que lo que el mismo Diccionario entiende con el término cómputo, es decir “cuenta o cálculo”


Había quienes hablaban de “lenguaje máquina” y de “ensambladores” como el Fortran, que permitían una programación más fácil, y que se hizo intuitiva (en mayor o menor grado) con los llamados lenguajes de alto nivel, un nivel que no ha parado de crecer, a tal punto que hemos alcanzado la época de la llamada inteligencia artificial y hay quien curiosamente retorna al viejo concepto de cerebro electrónico para fundamentar una delirante perspectiva transhumanista. 


Desde la popularización y la aparición de ordenadores domésticos, se hicieron claras las primeras aplicaciones: el cálculo, el juego y el proceso de textos, incluso toscos dibujos con lenguajes como “Logo”. Después vendría internet, la localización GPS y todas esas maravillas que nos harían difícil retornar al mundo del siglo XX. Recuerdo que, en los años 80 de ese siglo, hube de recurrir al centro de cálculo de la universidad, que impresionaba, para el análisis estadístico de los resultados de mi tesis doctoral, algo que ahora podría lograr usando un sencillo programa estadístico o incluso una hoja de cálculo y, con más paciencia, hasta la calculadora que hay en cualquier móvil. En esa época tuve un primer modelo casero que me servía sólo como procesador de textos, algo mejor que mi máquina de escribir, que no perdonaba errores de teclado. Un procesador es, para la R.A.E. una “unidad funcional de una computadora u otro dispositivo electrónico que se encarga de la búsqueda, interpretación y ejecución de instrucciones”. Las instrucciones no eran tan simples como ahora, que se han hecho casi inexistentes.


Más tarde, uno de esos lenguajes intuitivos, ”Basic”, en un “PC (personal computer)”, me abrió la mente a la maravilla de la simulación de procesos químicos y biológicos. Antes ya se hablaba de los “autómatas celulares”, con los que Martin Gardner popularizó el “juego de la vida” de John Conway, y que acabaron dando lugar a una sistematización realizada por Stephen Wolfram en su célebre libro “A New Kind of Science”. En cierto modo, se podía sustituir una aproximación diferencial por una discreta, donde la unidad era mostrada por un pixel; más tarde se hablaría, en aplicaciones médicas, del voxel, pero eso ya es otra cosa.


Durante unos cuantos años, la información que uno podía manejar en su propio ordenador era bastante limitada, en términos de bytes, pero, con bastante rapidez, se pasó a sucesivas potencias de diez, siendo términos comunes hoy los Gigabytes o “gigas”, y existiendo ya sistemas de almacenamiento personales o en eso que llaman la nube pero que es bien terrestre, que muestran prefijos poco usados en otros campos: “tera”, “peta”, “exa”, “zetta” … Tanto la capacidad de almacenamiento como la velocidad de proceso de computación facilitaron la aplicación de los computadores a todo lo que es ampliamente conocido. A la vez, la miniaturización permite que todo eso no sólo sea disponible en una pantalla de sobremesa, sino en un teléfono portátil (“smartphone”) e incluso un reloj de pulsera (“smartwatch”). Las consecuencias buenas y malas de tal avance tecnológico son ampliamente conocidas… y también muy desconocidas, con derivas delictivas. Por “whatsapp” podemos conectar con un ser querido que esté en otro continente, pero también desde esa lejanía podemos ser estafados por un suplantador si nuestra vigilancia, cada día más necesaria, decae. 


En alguno de esos años de avance desde la construcción del “ENIAC”, aparecido poco después del “Colossus”,con el que Turing descifró el código Enigma, hasta la actualidad, se dio un cambo de término; en general, ya nadie habla de computadora, que hace referencia al cálculo, al menos en nuestro medio, sino de ordenador. Es un término curioso porque un ordenador no obedece a su nombre, precisándose que un agente humano (a veces auxiliado por programas) ordene lo que esa máquina almacena.


Hay algo que facilita el desorden en un ordenador, algo que no ocurría tanto antes de su uso. Podemos hacer una comparación con cualquier conjunto de cosas manejadas analógicamente, como una biblioteca o álbumes de fotos. Una diferencia esencial estriba en el coste económico. Los libros son más o menos caros, las fotos en película y papel específico también; en cambio, lo que guardamos en un ordenador tiene un coste mucho menor, habiendo mucho material gratuito (cada vez menos), lo que propicia una tendencia a guardar no sólo información sino también mucho ruido.


Podemos ordenar cuando guardamos cosas, o datos por decirlo de modo general, acción que parece obedecer a uno de tres afanes, el de acumular, similar al síndrome de Diógenes, el de coleccionar y el pragmático. 


Un ordenador nos propicia que guardemos todo, pero eso generará la dificultad de un uso adecuado de lo que tenemos. En él podemos distinguir espacios de biblioteca, de archivo, de filmoteca, ludoteca, discoteca o un banco de fotos, entre otros. Los buscadores de internet también facilitan la colección de “links” que, como tantas imágenes, quizá no volvamos a visitar jamás. 


El afán de coleccionar parece más frecuente que los análisis que de él se hacen. Walter Benjamin trató de “hacer posible una mirada sobre la relación del coleccionista con sus riquezas” en su libro “Desembalo mi biblioteca”. Una biblioteca física supone un peso que se hace evidente cuando se quiere trasladar, como le ocurrió también a Alberto Manguel, que llegó a acumular unos 35.000 ejemplares. Probablemente ese afán se enraizó en haber ejercido de lector para Borges, cuando a ese gigante literario le sobrevino la ceguera. Siendo grande, la colección de Manguel fue inferior a la de Umberto Eco, que contaba con más de 50.000 libros. 


Suele hacerse con frecuencia una pregunta absurda. ¿Para qué? Está relacionada con la absoluta incompletitud de la lectura por una persona. Si leyésemos en promedio un libro cada día, algo que parece muy difícil, por no decir imposible, leer todos los que guardaba Eco nos llevaría unos 137 años. Y no son tantos libros en comparación con los que hay disponibles a escala mundial. Wikipedia nos dice que en la Biblioteca del Congreso de EEUU hay 36,8 millones de libros. Es obvio que lo que podemos leer a lo largo de la vida, con un tiempo adecuado, es una fracción minúscula del campo de elección disponible. Y lo que podemos recordar de todo ello será una fracción mucho más pequeña. Pero ese mínimo tiene que ver, en su composición, con los ordenadores. ¿Qué leer? Alguien dirá que basta con un libro, el sagrado. Muchos, en la práctica, pensarán que ninguno. Otros, que serán los necesarios para ejercer una profesión. También habrá quien lea por puro placer. Se priorizará la literatura por unos a la vez que otros se interesarán por libros científicos, ensayos, ficción... Se invocará a los clásicos, como hizo Italo Calvino, o se llegará a proponer un “Canon”, como propuso el genial Harold Bloom, quien también publicó un precioso libro entre muchos más, “Cómo leer y por qué”, dos preguntas íntimamente imbricadas.


La tarea de ordenar un ordenador supone un esfuerzo casi cotidiano si no quiere uno perderse en una selva de bits. Un esfuerzo innecesario, porque no es ni mucho menos imprescindible aspirar a la completitud, inalcanzable por otra parte, que supone tenerlo “todo”. 


Estoy embarcado últimamente en la tarea de ordenar y podar la colección de fotos digitales que he ido almacenando. Son muy pocas las que merecen ser guardadas, sea por calidad, originalidad o resonancia afectiva. Quizá las relevantes ocuparían un espacio físico, de ser impresas, inferior al de los pocos álbumes convencionales que conservo de la era analógica. Al irlos clasificando a la vez que los obtenía, tanto los libros electrónicos como los artículos de múltiples disciplinas que he ido acumulando están perfectamente ordenados y son localizables en segundos, pero sólo una fracción de todo ese material fue o será leída y me llevó un tiempo considerable establecer ese orden. 


Si, a la vez que uno no se conforma con un ordenador propiamente personal, sino que desea, desde él, conectar con otras personas sin perderse en una pseudo-comunicación inútil que perturba la comunicación real, se hace cada día más claro que la digitalización de la vida puede suponer un plus de desasosiego y de sinrazón en ella.


Llevamos millones de años siendo analógicos. Hemos escrito desde hace sólo unos pocos miles de años y usamos casi de forma cotidiana el ordenador desde hace pocas décadas. Tal aceleración, con efectos fantásticos a la hora de facilitarnos muchas cosas incluyendo la comunicación, no se ha traducido, sin embargo, en hacernos mejores. Al contrario, la hiperconectividad, las plataformas personales de ocio, la planificación extrema de los detalles más nimios de nuestras agendas incluyendo los viajes, la acumulación de fotos que nunca veremos, la eliminación de tradicionales prácticas manuales y, en un grado alarmante, la sustitución de empleados humanos por máquinas, están promoviendo un aislamiento tanto más brutal cuanto más necesita uno de otros, de personas cercanas (en modo presencial diría un moderno). El teléfono es un buen símbolo al respecto, sirviendo para todo lo que sirve un ordenador de sobremesa, incluso para hablar con alguien, algo que pocos hacemos. No hace tantos años, había un teléfono en cada casa (no en todas) y una guía de todos ellos. A la vez, si alguien tenía necesidad de hacer una llamada estando en la calle, podía recurrir a una cabina telefónica o ir a un café (en casi todos ellos había teléfono público y también guía). Si hoy alguien pierde su móvil, está sencilla y traumáticamente perdido, y no sólo por no poder telefonear (aunque un buen samaritano le deje un móvil, ¿qué hace sin sus “contactos”?). No sólo se pierde un aparato muy útil, también puede perderse mucho más si quien lo encuentra lo “hackea”.


La nostalgia no conduce a nada, pero el recuerdo sosegado sí. Yo entro en el grupo de personas que han vivido gran parte de su vida en el siglo XX. La reflexión que aquí he presentado es introductoria a algunas más que pretendo sobre los efectos de la digitalización en nuestras vidas.  

 

martes, 13 de junio de 2023

Informática. Herramienta y metáfora.

 


Imagen tomada de Pixabay

Hay un lema que parece reforzarse más allá, más acá, del ámbito cosmológico para el que se formuló. Se trata del “it from bit” de Wheeler. Lo primordial, lo originario, sería la información, aunque no hubiera nadie para ser informado. Esa exageración brutal se concilia con asumir que la consciencia humana es sólo mejor que otras, como la de un rinoceronte o la de un bolígrafo. Koch y Tononi defendieron, con su teoría de la información integrada, que cualquier sistema mínimamente complejo sería también mínimamente consciente. 


El bit es, en ese enfoque, lo elemental, aunque dice muy poco. Para cualquier comunicación, interesa reducir lo convencional, sea una letra, un número, un signo, a una corta secuencia de bits, eso que se llama byte y que, aunque de tamaño relativamente arbitrario, acabó siendo una secuencia de 8 bits. En la actualidad, ya nos hemos olvidado de hablar de miles de bytes (Kb), para hacerlo de Mb, Gb, Tb y más allá. 


El desarrollo de sistemas electrónicos de tamaño manejable facilitó la expansión de la capacidad de comunicación y de su almacenamiento. El ejemplo más obvio es lo que conocemos habitualmente como “móvil”, que, en la práctica, ha dejado de ser teléfono, porque casi nadie lo usa para hablar en sentido literal, sino para una comunicación doblemente digital, la basada en el uso, con los dedos, de lo que acaba siendo una informática binaria. En ese artefacto, transferencias masivas de información soportan aplicaciones que incluyen periódicos, bibliotecas, fotos, películas, radio, televisión, calculadoras sofisticadas, enciclopedias, juegos solitarios e interactivos, navegación GPS, registros de todo tipo, incluyendo los de carácter médico, etc. Los relojes digitales son cómodos “móviles” de muñeca, con los que podemos hacer de todo, incluso pagar en cualquier tienda.


La diferencia entre lo que llamamos ordenadores, “tablets” o “móviles”, alude más a la comodidad del uso inherente a su forma que a su capacidad, aunque haya excepciones cuando se exigen muy altos niveles de computación (como los que soportan la famosa “nube” o los involucrados en física de partículas), que requieren máquinas de tamaño, coste energético y refrigeración considerables. 


Todo eso es una maravilla hecha realidad. También lo es la simulación de procesos, el cálculo aplicado, la contemplación de problemas complejos en función de la posibilidad o no de su tratamiento algorítmico. Pero también hay indudables consecuencias negativas perceptibles, sobre todo, por la gente mayor que, a diferencia de los llamados “nativos digitales” son más afectados por una pérdida de servicios, por timos informáticos, y por una gran soledad que acrecienta la que ya tienen por edad. Hay efectos negativos en empleos y en aspectos relacionales que fueron cotidianos. Figuras ejemplares por su contribución social han dado paso a todo tipo de "influencers".


Pero quizá el peor efecto del auge digital se cifre en un prefijo, “neuro”. La tentación de creer que el sujeto es un hardware biológico que alberga un software también biológico conduce a efectos buenos y a otros que son perniciosos. Es bueno y muy prometedor el uso de sistemas informáticos como ayuda, no sólo para comunicación por parte de personas con discapacidad motora; también como ayuda real enfocada a la compensación de lo hasta ahora irreparable, como las lesiones medulares. Las interacciones cerebro – ordenador y la robotización intervencionista son un campo de desarrollo fascinante que hacen esperar en una revolución en el ámbito quirúrgico y en la rehabilitación funcional. 


La metáfora no puede, sin embargo, ir más allá del afán heurístico. No somos reducibles a algo “informático”. Lo “neuro” precede ya obsesivamente como prefijo a todo tipo de manifestación humana y sustenta no sólo la identificación mente – cerebro, sino que fomenta la analogía impresentable entre el funcionamiento cerebral y el de un ordenador. Es desde esa analogía no fundamentada que la consciencia se supone equivalente al proceso algorítmico que los sistemas informáticos permiten. 


Últimamente, esa pretensión de equivalencia cobra auge con el desarrollo de la inteligencia artificial (IA), que nada tiene de inteligente, merced a los chatGPT que simulan muy bien tareas escolares y, en general, cualquier proceso algorítmico, incluyendo la sólo aparente creación de arte.


Si el “Dr Google” sigue teniendo un éxito arrollador en una hipocondrizacion generalizada, los chatGPT suponen la tentación de sustituir al diagnóstico de un médico, con efectos que, si alguna vez pueden ser bondadosos, serán en general catastróficos, en simbiosis con todo tipo de sensores de salud, por una medicalización de la vida cotidiana que irá asociada a serios riesgos yatrogénicos, incluyendo los mentales, los "neuro", transformados en neuras. Lo más novedoso, el desarrollo informático, puede facilitar una consolidación de los peores rasgos neuróticos, cuando no propiciar la manifestación psicótica.


El contexto que prima el bit frente al it, no se conforma con ver toda conducta humana como un “neuro”- comportamiento, concibiéndose así toda área de salud mental como una "neuro-psicología". La neura de lo "neuro" y el reino de los bits acaban convirtiendo a las personas en cifras y a sus cuerpos en albergues de información transmisible, a modo de genes egoístas, a lo Dawkins. 


La informática como herramienta supone un gran avance, incuestionable, en el que nos hallamos inmersos, aunque tiene efectos colaterales que pueden ser terribles para muchas personas. La informática como metáfora nos reifica, pretende medirnos en múltiplos de bytes que se comunican entre sí y que se transmiten, sea como “memes” (de nuevo, Dawkins), sea como hijos, con información genética editable, no sólo para bien, también para lo "mejor", en el nuevo afán eugenésico.


Esta reificación se da en el seno de un neocapitalismo desmedido, que, entre otras cosas, ha transformado la basura de papel en basura de plástico y de elementos venenosos. 


Si no se le pone freno a la exageración digital, si sólo vemos ventajas en los ordenadores y redes, acabaremos con la civilización misma, y no por el desarrollo de una IA poderosa con consciencia emergente, sino como tristes solitarios ahogados en plástico y sometidos a la barbarie, a no ser que antes nos lleve por delante una catástrofe nuclear, solucionando, al menos a escala local, la paradoja de Fermi. 

martes, 3 de enero de 2017

La biografía en imágenes. Entre el recuerdo y el narcisismo.



“… Algún día 
se pondrá el tiempo amarillo
sobre mi fotografía.” 
(Miguel Hernández. El rayo que no cesa)

Desde 1900 y durante 45 años, un matrimonio alemán (Anna y Richard Wagner) se hizo fotos en Navidad en el salón de su casa. Las enviaban a sus amigos como felicitación. Las fotos los muestran acompañados del árbol navideño y de regalos aunque algún año la escasez debida a la guerra hacía que posaran con abrigo. Los efectos del tiempo son evidentes.

Mucho más recientemente, desde 1976, Diego Goldberg hace algo parecido con su familia, pero con diferencias. Sólo muestra los rostros de frente de cada miembro de la familia; otra diferencia con los Wagner, es que las fotos son tomadas siempre el 17 de junio. También aquí es clara la influencia del tiempo.

En la actualidad es gratis y además muy fácil hacer fotos (cosa muy distinta es hacerlas bien) gracias a la fotografía digital y a su incorporación a los teléfonos, auténticos ordenadores personales de bolsillo. Pero lo cuantitativo cambia con frecuencia lo cualitativo. Parece que eran más visitados los viejos álbumes familiares que las fotos digitales de ahora. Aunque sea coincidencia, parece también que el color disipa una mirada que se centraba en las viejas fotos en blanco y negro; quizá no sea casual que las fotos tomadas por Goldberg lo sean así, en blanco y negro.

Vivimos un tiempo paradójico. El extraordinario desarrollo de las aplicaciones informáticas facilita la desinformación. La ingente cantidad de fotos que se pueden tomar de modo gratuito perturba la mirada sosegada al recuerdo que una foto antigua puede evocar.

La foto ya no sirve al recuerdo sino al culto del instante. Uno se fotografía para mostrarse aquí y ahora en las redes sociales o en los círculos de "WhatsApp", no para ser recordado, incluso por sí mismo, al cabo de años. Se persigue además que ese aquí y ahora sea lo más especial posible, un lugar remoto, un ámbito de felicidad, o un sitio accesible por una hazaña singular, sea en lo alto de una montaña o en el fondo del mar. Esa posibilidad se facilita porque ya no se requiere siquiera de un otro que tome la foto; basta con el ya popular “selfie”. Y por hacerse “selfies” insólitos hay quien llega literalmente a matarse despeñándose o corneado por un toro. 

De los matices nostálgicos que pueda suponer el recuerdo fotográfico se pasa con gran frecuencia al interés puramente narcisista por mostrarse y realzar el momento en que se hace. El recuerdo se evapora en la fugacidad del momento.

Se dice con frecuencia que una imagen vale más que mil palabras, algo que incluso electrónicamente parece reafirmarse en términos de “gigas” destinados a almacenar imagen o texto. Pero eso suele ser una gran mentira porque la palabra siempre acaba diciendo más de lo realmente importante que cualquier fotografía. Y es que lo subjetivo se muestra mejor hablando o callando que con una foto. Pocos bits bastan para decir “no” o para expresar un enunciado importante.

No es descartable que el exceso fotográfico actual sea un frenesí pasajero como lo fue hace años la obsesión por registrar bodas, bautizos, excursiones y lo que fuera en video, a veces con el único y sádico propósito de mostrarlo a parientes y amigos a su pesar.

Esas modas pasajeras sustentan la esperanza de que no caminemos irreversiblemente hacia la estupidez generalizada que permite la técnica. La vida media de cualquier software avanzado e incluso de cualquier soporte físico suyo se hace progresivamente más breve. La gran novedad que supuso el CD, por ejemplo, ha quedado relegada al olvido entre los más novedosos almacenamientos en “pendrives” o en “la nube” y el retorno nostálgico del vinilo.

No es descartable que las maravillosas tecnologías de que disponemos acaben sirviendo también para facilitar que seamos propiamente humanos, algo que requiere una comunicación real, aunque sea en soledad.