{"id":187071,"date":"2025-06-02T15:54:47","date_gmt":"2025-06-02T19:54:47","guid":{"rendered":"https:\/\/sportseco.com\/?p=187071"},"modified":"2025-06-02T15:54:52","modified_gmt":"2025-06-02T19:54:52","slug":"mientras-la-inteligencia-artificial-evoluciona-aumenta-la-presion-para-regular-los-robots-asesinos","status":"publish","type":"post","link":"https:\/\/sportseco.com\/?p=187071","title":{"rendered":"Mientras la inteligencia artificial evoluciona, aumenta la presi\u00f3n para regular los \u201crobots asesinos\u201d"},"content":{"rendered":"\n<p>Cada d\u00eda cedemos voluntariamente informaci\u00f3n sobre nosotros a las m\u00e1quinas. \u00bfqu\u00e9 pasar\u00eda si \u00e9stas usaran los datos para decidir a qui\u00e9n atacar como enemigos que deben ser eliminados? La ONU y un grupo de ONG temen que este escenario est\u00e9 cerca de hacerse realidad y exigen una regulaci\u00f3n internacional de las armas letales aut\u00f3nomas.<\/p>\n\n\n\n<p>Un mundo en el que los algoritmos determinen el destino de soldados y civiles por igual ya no es hipot\u00e9tico. Los drones impulsados&nbsp;\u200b\u200bpor inteligencia artificial est\u00e1n transformando la guerra, planteando&nbsp;<strong>profundas cuestiones&nbsp;\u00e9ticas sobre la autonom\u00eda en combate.<\/strong>&nbsp;Mientras los legisladores internacionales se apresuran a establecer las reglas b\u00e1sicas, la carrera por controlar esta tecnolog\u00eda en r\u00e1pida evoluci\u00f3n ha comenzado.<\/p>\n\n\n\n<p>Cada d\u00eda,&nbsp;<strong>cedemos voluntariamente informaci\u00f3n sobre nosotros a las m\u00e1quinas<\/strong>. Esto sucede cuando aceptamos una cookie en l\u00ednea o utilizamos un motor de b\u00fasqueda. Apenas pensamos en c\u00f3mo se venden y utilizan nuestros datos antes de pulsar en \u201caceptar\u201d para llegar a la p\u00e1gina que deseamos, vagamente conscientes de que se utilizar\u00e1n para dirigirnos como consumidores y convencernos de comprar algo que no sab\u00edamos que necesit\u00e1bamos.<\/p>\n\n\n\n<p>Pero \u00bf<strong>qu\u00e9 pasar\u00eda si las m\u00e1quinas usaran los datos para decidir a qui\u00e9n atacar como enemigos que deben ser eliminados<\/strong>? La ONU y un grupo de organizaciones no gubernamentales temen que este escenario est\u00e9 cerca de hacerse realidad. Exigen una regulaci\u00f3n internacional de las Armas Letales Aut\u00f3nomas (LAWS) para evitar un futuro pr\u00f3ximo en el que las m\u00e1quinas dicten decisiones de vida o muerte.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">La creciente \u201cdeshumanizaci\u00f3n digital\u201d<\/h2>\n\n\n\n<p>Por devastadora que pudiera sonar esta forma moderna de guerra, el creciente espectro de los drones u otras armas aut\u00f3nomas a\u00f1ade nueva urgencia a la preocupaci\u00f3n constante por los \u201crobots asesinos\u201d que&nbsp;<strong>siembran la muerte desde el cielo y deciden por s\u00ed mismos a qui\u00e9n atacar.<\/strong><\/p>\n\n\n\n<p>\u201cEl&nbsp;<a href=\"https:\/\/www.un.org\/sg\/es\">Secretario General<\/a>&nbsp;siempre ha dicho que usar m\u00e1quinas con poderes totalmente delegados para tomar la decisi\u00f3n de quitar una vida humana&nbsp;<strong>es simplemente repugnante desde el punto de vista moral<\/strong>\u201d, afirma Izumi Nakamitsu, directora de la Oficina de Asuntos de Desarme de la ONU. \u201cNo deber\u00eda permitirse. De hecho, deber\u00eda estar prohibido por el derecho internacional. Esa es la postura de las Naciones Unidas\u201d.<\/p>\n\n\n\n<p><em>Human Rights Watch<\/em>, una ONG internacional, ha afirmado que el uso de armas aut\u00f3nomas ser\u00e1 el ejemplo m\u00e1s reciente y grave de la creciente \u00abdeshumanizaci\u00f3n digital\u00bb, mediante la cual&nbsp;<strong>la inteligencia artificial toma numerosas decisiones que alteran la vida de las personas,<\/strong>&nbsp;como la vigilancia policial, la aplicaci\u00f3n de la ley y el control fronterizo.<\/p>\n\n\n\n<p>\u201cVarios pa\u00edses con importantes recursos est\u00e1n invirtiendo fuertemente en inteligencia artificial y tecnolog\u00edas relacionadas para desarrollar sistemas de armas aut\u00f3nomas terrestres y mar\u00edtimas. Esto es un hecho\u201d, advierte Mary Wareham, directora de incidencia de la Divisi\u00f3n de Armas de&nbsp;<em>Human Rights Watch<\/em>.<\/p>\n\n\n\n<p>\u201cEsta iniciativa est\u00e1&nbsp;<strong>impulsada por Estados Unidos<\/strong>, pero otros pa\u00edses importantes como Rusia, China, Israel y Corea del Sur tambi\u00e9n han invertido fuertemente en sistemas de armas aut\u00f3nomas\u201d, detalla.<\/p>\n\n\n\n<p>Quienes defienden la guerra impulsada por la inteligencia artificial suelen se\u00f1alar las limitaciones humanas para justificar su expansi\u00f3n. Los soldados pueden cometer errores de juicio, actuar seg\u00fan sus emociones, necesitar descanso y, por supuesto, exigir salarios, mientras que las m\u00e1quinas -argumentan-, mejoran cada d\u00eda en la identificaci\u00f3n de amenazas bas\u00e1ndose en patrones de comportamiento y movimiento. El siguiente paso, sugieren algunos defensores, es&nbsp;<strong>permitir que los sistemas aut\u00f3nomos decidan cu\u00e1ndo apretar el gatillo.<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-image\"><img data-recalc-dims=\"1\" decoding=\"async\" src=\"https:\/\/i0.wp.com\/global.unitednations.entermediadb.net\/assets\/mediadb\/services\/module\/asset\/downloads\/preset\/Collections\/Embargoed\/05-10-2023-RAF-Reaper-UAV.jpg\/image770x420cropped.jpg?w=640&#038;ssl=1\" alt=\"Un veh\u00edculo a\u00e9reo aut\u00f3nomo vuela sobre Afganist\u00e1n.\" title=\"Un veh\u00edculo a\u00e9reo aut\u00f3nomo vuela sobre Afganist\u00e1n.\"\/><\/figure>\n\n\n\n<p>Crown Copyright<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Dos objeciones<\/h2>\n\n\n\n<p>Existen dos objeciones principales<strong>&nbsp;<\/strong>para permitir que las m\u00e1quinas tomen el control del campo de batalla: en primer lugar<strong>, la tecnolog\u00eda dista mucho de ser infalible<\/strong>.<\/p>\n\n\n\n<p>En segundo lugar, la ONU y muchas otras organizaciones consideran que&nbsp;<strong>el uso de sistemas letales de armas aut\u00f3nomas es poco \u00e9tico.<\/strong><\/p>\n\n\n\n<p>\u00abEs muy f\u00e1cil que las m\u00e1quinas confunden objetivos humanos\u00bb, afirma Wareham, de&nbsp;<em>Human Rights Watch<\/em>. \u201cLas&nbsp;<em>personas con discapacidad corren un riesgo especial debido a su forma de moverse.<\/em>&nbsp;Sus sillas de ruedas pueden confundirse con armas. Tambi\u00e9n preocupa que la tecnolog\u00eda de reconocimiento facial y otras mediciones biom\u00e9tricas no puedan identificar correctamente a personas con diferentes tonos de piel. La inteligencia artificial sigue presentando deficiencias y conlleva los sesgos de quienes programaron esos sistemas\u201d, a\u00f1ade.<\/p>\n\n\n\n<p>En cuanto a las objeciones \u00e9ticas y morales, Nicole Van Rooijen, directora ejecutiva de&nbsp;<em>Stop Killer Robots<\/em>&nbsp;(Detengan a los robots asesinos), una coalici\u00f3n que promueve una nueva ley internacional sobre la autonom\u00eda de los sistemas de armas, afirma que&nbsp;<strong>dificultar\u00edan enormemente la determinaci\u00f3n de responsabilidades por cr\u00edmenes de guerra<\/strong>&nbsp;y otras atrocidades.<\/p>\n\n\n\n<p><strong>\u201c\u00bfQui\u00e9n es responsable?<\/strong>&nbsp;\u00bfEl fabricante? \u00bfO la persona que program\u00f3 el algoritmo? Esto plantea toda una serie de cuestiones y ser\u00eda una falla moral que se usaran ampliamente\u201d, apunta.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">\u00bfUna prohibici\u00f3n para 2026?<\/h2>\n\n\n\n<p>La velocidad a la que avanza la tecnolog\u00eda y la evidencia de que los sistemas de selecci\u00f3n de blancos basados&nbsp;\u200b\u200ben inteligencia artificial ya se utilizan en el campo de batalla acent\u00faan la urgencia de&nbsp;<strong>los llamamientos a establecer normas internacionales&nbsp;<\/strong>para esta tecnolog\u00eda.<\/p>\n\n\n\n<p>En mayo de este a\u00f1o, se celebraron conversaciones informales en la sede de la ONU, en las que Secretario General Ant\u00f3nio Guterres inst\u00f3 a los Estados miembros a&nbsp;<strong>alcanzar un acuerdo jur\u00eddicamente vinculante para regular y prohibir su uso para 2026.<\/strong><\/p>\n\n\n\n<p>Los intentos de regular y prohibir los sistemas letales de armas aut\u00f3nomas no son nuevos. La ONU celebr\u00f3 la primera reuni\u00f3n de diplom\u00e1ticos en 2014, en el Palacio de las Naciones de Ginebra, donde el presidente de las conversaciones de expertos, el embajador Jean-Hugues Simon-Michel, de Francia, describi\u00f3 los sistemas letales de armas aut\u00f3nomas como \u201cun tema emergente y desafiante en la agenda de desarme en este momento\u201d, a pesar de que para entonces no se utilizaban sistemas de armas aut\u00f3nomas en conflictos.<\/p>\n\n\n\n<p>En ese momento, se consideraba que se necesitaban medidas preventivas para establecer normas en caso de que la tecnolog\u00eda convirtiera los sistemas letales de armas aut\u00f3nomas en una realidad.<\/p>\n\n\n\n<p>Once a\u00f1os despu\u00e9s, las conversaciones contin\u00faan, pero&nbsp;<strong>a\u00fan no hay consenso sobre la definici\u00f3n de armas aut\u00f3nomas, y mucho menos sobre una regulaci\u00f3n<\/strong>&nbsp;acordada para su uso. No obstante, las ONG y la ONU se muestran optimistas respecto a que la comunidad internacional avanza lentamente hacia un entendimiento com\u00fan sobre cuestiones clave.<\/p>\n\n\n\n<p>\u201cTodav\u00eda&nbsp;<strong>no estamos cerca de negociar un texto<\/strong>\u201d, se\u00f1ala Rouijen, de&nbsp;<em>Stop Killer Robots<\/em>. \u201cSin embargo, el actual presidente de la&nbsp;<a href=\"https:\/\/disarmament.unoda.org\/the-convention-on-certain-conventional-weapons\" target=\"_blank\" rel=\"noreferrer noopener\">Convenci\u00f3n sobre Ciertas Armas Convencionales<\/a>&nbsp;(un instrumento de derecho humanitario de la ONU para prohibir o restringir el uso de tipos espec\u00edficos de armas que se considera que causan sufrimiento innecesario o injustificable a los combatientes o que afectan indiscriminadamente a la poblaci\u00f3n civil) ha presentado un borrador de trabajo bastante prometedor que, si existe voluntad y valent\u00eda pol\u00edticas,&nbsp;<strong>podr\u00eda sentar las bases de las negociaciones<\/strong>\u201d.<\/p>\n\n\n\n<p>Wareham, de&nbsp;<em>Human Rights Watch<\/em>, tambi\u00e9n considera las conversaciones de mayo en la ONU como un importante paso adelante. \u201c<strong>Al menos 120 pa\u00edses apoyan plenamente<\/strong>&nbsp;el llamamiento para negociar una nueva ley internacional sobre sistemas de armas aut\u00f3nomas. Vemos mucho inter\u00e9s y apoyo, incluso de laureados con la paz, expertos en inteligencia artificial, profesionales del sector tecnol\u00f3gico y l\u00edderes religiosos\u201d, destaca.<\/p>\n\n\n\n<p>\u201cExiste un consenso creciente de que los sistemas de armas totalmente aut\u00f3nomos&nbsp;<strong>deber\u00edan prohibirse<\/strong>\u201d, asevera Nakamitsu, de la Oficina de Asuntos de Desarme de las Naciones Unidas. \u201cEn lo que respecta a la guerra, alguien debe rendir cuentas\u201d.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>un.org<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Cada d\u00eda cedemos voluntariamente informaci\u00f3n sobre nosotros a las m\u00e1quinas. \u00bfqu\u00e9 pasar\u00eda si \u00e9stas usaran los datos para decidir a qui\u00e9n atacar como enemigos que deben ser eliminados? La ONU y un grupo de ONG temen que este escenario est\u00e9 cerca de hacerse realidad y exigen una regulaci\u00f3n internacional de las armas letales aut\u00f3nomas. Un [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":187072,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[6],"tags":[],"class_list":["post-187071","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ecologia"],"acf":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/sportseco.com\/wp-content\/uploads\/2025\/06\/image1170x530cropped.jpg?fit=1170%2C560&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/sportseco.com\/index.php?rest_route=\/wp\/v2\/posts\/187071","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sportseco.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sportseco.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sportseco.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/sportseco.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=187071"}],"version-history":[{"count":1,"href":"https:\/\/sportseco.com\/index.php?rest_route=\/wp\/v2\/posts\/187071\/revisions"}],"predecessor-version":[{"id":187073,"href":"https:\/\/sportseco.com\/index.php?rest_route=\/wp\/v2\/posts\/187071\/revisions\/187073"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sportseco.com\/index.php?rest_route=\/wp\/v2\/media\/187072"}],"wp:attachment":[{"href":"https:\/\/sportseco.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=187071"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sportseco.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=187071"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sportseco.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=187071"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}