viernes, 28 de enero de 2022

¿Qué es la obsolescencia programada?

 La palabra obsolescencia tiene un antecedente de uso lingüístico del verbo latín obsolefacio de uso común en la antigua Roma, el verbo en tiempo pasado se escribía obsolefatus; este verbo cuando se transforma en adjetivo en la palabra obsoletus, o bien, la palabra variante: obsoletum; que implicaba en significante: inactivo | desgastado | degradado.



Mientras que la palabra programada proviene de programatio / programmatus y su uso lingüístico latino data de los siglos 3-5, para referirse a un edicto| proclamación, notando que el contexto de su utilización fue legal y político. No así, el uso de las palabras programmator / programma, que fue acuñado recientemente en los siglos 19-20 para utilizarse como una nueva función significante de la técnica: informática.

La informática es un nuevo paradigma matemático que en su inicio conjugaba el cálculo y la probabilidad, mediáticamente nace en 1928 en un artículo titulado “La teoría de los juegos y el comportamiento económico” de Von Neumann & Morgenstern en la revista Anales Matemáticos [págs. 295-320].

Un documento que fomentaba una alianza entre las áreas humanas de conocimiento denominadas la lógica y la física, en específico, el descubrimiento de las propiedades de los metales, tal como la capacidad eléctrica (miliamperios) para almacenamiento de energía.

El modelo de Von Neumann en la década de los 40’s propuso un estilo de cálculo donde se extrae datos de la memoria [caja de almacenamiento], a continuación, se ejecuta el procesamiento [operaciones matemáticas] y finaliza enviando el resultado del cálculo nuevamente a la memoria.

Un modelo que parecía al principio muy simple, puesto que su innovación fue el almacenamiento de las operaciones matemáticas y sus resultados; no obstante, la cantidad de datos numéricos [que es infinitesimal], así como el número de procesos [operaciones matemáticas] requerían cada vez, en cada nueva operación, la mayor capacidad de almacenamiento posible, esto es el cuello de botella del modelo Von Neumann.

Esto representa una penalización donde el rendimiento, el costo y la potencia precisan nuevas fuentes de almacenamiento (metales con mayor capacidad eléctrica) para continuar realizando cálculos con números más grandes. En el pasado, estos cálculos incentivaron el desarrollo de artilugios tal como los ábacos y una variedad de sistemas de representación que hoy denominamos sistemas numéricos decimal, binario, vigesimal, hexadecimal, etc.

Pero, en el caso del modelo Von Neumann, el desarrollo está orientado hacia el estado de oxidación de un metal, es decir, hacia la capacidad eléctrica (o no) del metal y sus variaciones de semiconductor como material de almacenamiento de energía; que de hecho están relacionadas entre el peso y el volumen de un metal para almacenar energía en miliamperio por hora (mAh).


Aquí comienza la obsolescencia del modelo de Von Neumann: la memoria o el almacenamiento de datos numéricos, y en general, el almacenaje es el inicio de la obsolescencia de toda máquina automática o semiautomática.

Básicamente, el modelo de una máquina semiautomática [telekino, el ajedrecista y el aritmómetro electromecánico de Torres Quevedo en 1914] nace con su propio desgaste; esto es, que la máquina electromecánica [de imanes] en su naturaleza técnica está forzada eventualmente a ser reemplazada, por ejemplo, con imanes de mayor fuerza magnética.

Así mismo, las máquinas automáticas (analógicas y digitales) dado su limitado almacenaje de operaciones sofisticadas, están emplazadas a la sustitución por un nuevo modelo de maquinaria con almacenaje más potente.

Lo anterior es visible en el periodo entre guerras, cuando inicia el uso de la lógica simbólica y los lenguajes formales que en su conjunto hoy llamamos software; también en la perfección de nuevos elementos para las máquinas (hardware). Tal como desarrollaron los inventores británicos Eckless y Jordan, quienes fabricaron el primer circuito electrónico [flipflap], base de toda la informática y sus potencialidades bien conocidas en el siglo XXI.

Asimismo, se aprecia la obsolescencia en los modelos como Z1, Z2, Z3 (primera máquina automática [basada en el modelo de Turing)] de Konrad Suze en 1941, el modelo de supercomputadora ENIAC de 1945 en E.U.A. y la máquina de Tanasoft Company que tenían poca capacidad de cálculo y eran poco fiables en sus resultados.

Entonces el reto estaba en ampliar la capacidad de la caja de almacenamiento [memoria] para continuar ejecutando operaciones matemáticas incluso más complejas (valores de polinomios, ecuaciones lineales con más incógnitas, ecuaciones diferenciales), no solo las operaciones elementales como suma, resta, multiplicación y división.

Y tiene lugar, la perfección de mecanismos para cálculo (como los 3 rotores del ENIGMA de 1943 o los rodillos-motor de LORENZ SZ40) que implementaron los ingenieros, matemáticos, ajedrecistas y las compañías fabricantes de máquinas automáticas.

Una competencia contrarreloj para calcular rápidamente y con mayor eficiencia (menor cantidad de errores) en los resultados.

En consecuencia, la implementación de la lógica simbólica como método matemático para cálculos complejos y la electro-mecanización de este método aplicado a los modelos de máquinas automáticas genera dos industrias hoy comúnmente conocidas como Compañías de software y Fabricantes de Equipo Original (OEM, por sus siglas en inglés, Original Equipment Manufacturer).

Debido a la presión bélica de la década de los 40’s, la complejidad de métodos matemáticos (software) utilizados en comunicaciones hubo necesidad de rediseñar la electro-mecanización (hardware) una y otra vez. Además, estaban los fenómenos fallidos aleatorios por el uso de electricidad, la fragilidad de los materiales (cables, tubos al vacío, tarjetas perforadas) y los nuevos métodos de cálculo (no binarios) que dan paso a la innovación tecnológica en los equipos de cómputo:

·         Colosus MARK-1 – diseño del británico Tommy Flowers [modelo de Turing]

·         ENIAC-1 – diseño del centro de la armada “Moore School of Electrical Ingenieering” y la Universidad de Pennsylvania.

A partir de 1945, por distintos fallos de estos equipos, se diseñan nuevos artilugios basados en corregir los errores, por ejemplo, el ENIAC fue reemplazado por el EDVAC; una computadora capaz de aprender en si misma de sus fallos e implementar sus correcciones que ejecutaba un programa (o algoritmo), un método por el cual se introduce el problema de la detención.


Un día cierto matemático preguntó ¿en un enunciado bien formado en un sistema de axiomas se puede deducir su verdad o falsedad a partir de los axiomas dados? La respuesta es un algoritmo, como un conjunto ordenado y finito de operaciones que permite emitir la solución de un problema planteado.

Ahora, ¿la solución como resultado de esas operaciones es una conclusión apropiada? el matemático Schulz respondió con el protocolo Lambda, -cualquier función que se pueda desarrollar en un lenguaje de una función calculable-; el algoritmo entonces se ajusta al protocolo Lambda, que más adelante se llama Lenguaje de programación LISP.

En cambio, Turing dedujo en 1928 lo siguiente: “algoritmo es algo que pueda programar o ejecutarse en una máquina actual [instrumento lógico ideal]”, es decir, que una máquina de Turing sea capaz de emular a una máquina de Turing.


En consecuencia, la obsolescencia de las máquinas automáticas se debe a su elemento innovador, capacidad eléctrica limitada [silicio, litio, otro], que es un prototipo de corrección para conseguir mayor almacenamiento que el mecanismo anterior y así lograr la ejecución de operaciones más complejas para obtener soluciones, que parecían infinitesimales (problema de la detención).

En otras palabras, si tomamos el ejemplo de la resolución de una imagen de extensión jpeg, es sabido que requiere menos capacidad de almacenamiento que una imagen tipo png; aunque ambos [jpeg, png] son algoritmos capaces de soportar la proyección de una imagen como una fotografía, pero difieren en calidad visual; lo mismo sucede con los algoritmos de los archivos de video o de audio.

Entonces ¿De qué manera medir la finitud de la obsolescencia programada? Sería obtener la cantidad total conocida por el humano de Teoremas matemáticos resueltos computacionalmente, pero no precisamente demostrados por el propio humano, ante esta [im] posibilidad emerge la computación cuántica.

Y por esto, es un mito que la obsolescencia de las máquinas incluyendo las computadoras sea programada, más bien es una consecuencia lógica de la naturaleza del material [de uso], puesto que a ese material se le atribuye una propiedad tecnológica [innatural].

Es decir, la obsolescencia de una máquina no está planificada ni tampoco puede ser determinada en la fase de diseño para limitar la vida útil del producto, sino más bien que la degradación es parte de la naturaleza intrínseca del metal como de cualquier otro elemento de los reinos del planeta tierra.

Pero, si se otorga a esa naturaleza, la capacidad extra: como la técnica, en razón de propiedades eléctricas específicas; el elemento metálico igualmente se degradaría tenga o no funciones tecnológicas o en todo caso, se convertiría en inactivo sea o no parte de un smartphone.



Fuente:

http://www.latin-dictionary.net/definition/23684/informo-informare-informavi-informatus

https://dbe.rah.es/biografias/9042/leonardo-torres-quevedo

https://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=residuos-silicio-encontram-novo-uso-baterias-litio#.YfQ3WTCZPIU 

ZERO Landfill: la desmaterialización de los residuos

  La propuesta de la ITU sobre conseguir cero rellenos sanitarios ( landfill , en inglés), se basa en la tesis de Wilfred Malembaum publicad...