Revista Opinión

Capitalismo S XXI. Los robots ya están aquí

Publicado el 30 abril 2023 por Manuhermon @manuhermon
Capitalismo S XXI. Los robots ya están aquí
CAPITALISMO SIGLO XXINUEVAS COORDENADASLOS ROBOTS YA ESTÁN AQUÍ
El Parlamento Europeo aprobó hace unos días una norma obligando a implantar el ‘botón de apagado’ en los robots. Ante la posibilidad de que un día no lejano los robots pudieran actuar por sí mismos fuera de las instrucciones humanas, el Parlamento Europeo aprobó en febrero de 2017 una directiva para obligar a que toda máquina automatizada, pensante, los robots en la UE incorporen un botón de muerte, un botón que permita desconectar.
La decisión de la UE es un reflejo de la nueva realidad en la que nos encontramos, quizás seamos la penúltima generación que tenga mayor inteligencia que los instrumentos que fabricamos, los cuales podrían tomar decisiones contrarias a nuestros intereses, por lo que la UE aprueba una medida cautelar. Inicialmente podemos definir un robot como una máquina, artefacto físico, capaz de manipular objetos y prestar servicios, programada para realizar tareas con cierta autonomía, imitando comportamientos humanos -o animales-, también puede ser un ingenio programable, un sistema virtual de software.
Los robots son artefactos que desde hace 40 años realizan tareas mediante instrucciones facilitadas por humanos. Los algoritmos invaden nuestras vidas y las de todo procesador, son las instrucciones que se dan a las máquinas, a robots, a los ordenadores, para que realicen tareas, lo cual hasta ahora hacía pensar que al final la máquina estaba controlada y dirigida por el ser humano, ahora está dando un gigantesco salto adelante comenzando una revolución. La Inteligencia Artificial, en estudio desde 1956, da un salto cualitativo al vincularse hoy a los big data, tomando enorme velocidad se están abriendo puertas al autoaprendizaje de los robots, machine learning, que permitiría aumentar su autonomía alejando del control humano muchas de sus decisiones.
‘Google procesa diariamente más de 24 petabytes de datos al día –un petabyte es igual a 10 elevado a la 15, un GB Gigabyte es 10 elevado a la 9-; YouTube procesa 27 pentabytes diarios; Facebook incorpora más de 10 millones de fotos nuevas cada hora; Twitter procesa más de 400 millones de tuits diarios; Flickr contenía más de 6.000 millones de fotos en 2011. En 2013 se estima que la cantidad total de información almacenada en el mundo es de alrededor de 1.200 exabytes. Un exabyte son 1.000 millones de gigas, un largometraje, una película, ocupa o puede comprimirse en un giga.’ –‘Big data. La revolución de los datos masivos’. Viktor Mayer-Schönberger y Kenneth Cukier. Turner Noema. 2013-
Mas no solo, es más, es diferente; Wired. Y más correcto. La irrupción del análisis y tratamiento de los big data está cambiando muchas cosas, incluida la forma de aprender los robots, pasando de la causalidad a la correlación. Ya no se trata de buscar las causas que producen un acontecimiento, sino buscar la correlación, poder predecir el hecho que va a ocurrir en función de múltiples datos que lo anticipan, hasta ahora inapreciables para el ser humano, determinar la probabilidad de que ocurra un fenómeno inferido a partir de aplicar matemáticas, de procesar gigantescas cantidades de datos. Los datos masivos permiten saber qué sucederá, no por qué, los robots no juzgarán por qué ocurren las cosas, solo conocerán que va a ocurrir, y actuarán.
Los big data se introducen en las máquinas para que ellas mismas aprendan, se permite a las máquinas acceder a las fuentes de enormes cantidades de datos para que se reactualicen, se adecuen a esa gigantesca información, piensen, y tomen decisiones en función de nuevos datos. Miles de millones de datos son intercambiados entre sí por máquinas y sistemas interconectados a todas horas hoy día en el Planeta. Los big data son millones y millones de datos de todo tipo producidos por cualquier actividad, de máquinas o seres humanos, tratados adecuadamente permiten adelantar comportamientos y/o sucesos. El análisis de cúmulos de datos permite hoy predecir enfermedades individuales, o epidemias, situar riesgos de incendios en bosques, aventurar desgastes y roturas de tuberías de gas o agua, predecir accidentes, rotura de infraestructuras, sean carreteras, puentes, cableados, …
Según Boston Consulting Group, (BCG), en EE. UU. los costes por hora de un robot industrial son tres veces menores que los costes de la hora de un obrero, 3$ contra 25$, -se refieren a costes totales, incluye impuestos, gastos proporcionales, etc. no solo salario-, dicen en BCG que en 1980 eran necesarios 25 puestos de trabajo de obreros industriales para generar un millón de dólares de valor añadido, hoy ese millón de dólares, lo consiguen 5 obreros.
El cuadro: ‘Manufacturing sector inflation-adjusted output and employment, 1980 to 2015’ de Brookings, Metropolitan Policy Program, muestra algo parecido a la idea de BCG, una línea roja representa el empleo industrial, mientras asciende el resultado, output, línea azul, hasta dos veces y media, en el mismo período de tiempo se han reducido el número de trabajadores desde 24,9 millones, hasta 6,4 en el año 2015, necesarios para producir un resultado, output, de millón de dólares.
Estas letras son las primeras páginas de un folleto que escribí en 2017, supongo tiene algo de actualidad con la venida a primer plano de la Inteligencia Artificial y su famoso chat. El folleto completo con sus cuadros lo pueden descargar desde este enlace

https://www.academia.edu/40074159/CAPITALISMO_SIGLO_XXI_NUEVAS_COORDENADAS_LOS_ROBOTS_YA_EST%C3%81N_AQU%C3%8D



Volver a la Portada de Logo Paperblog