La proximidad del Día del Juicio
Activistas de derechos humanos temían máquinas de levantamiento
Internacional de la organización no gubernamental Human Rights Watch con la Escuela de Derecho de Harvard publicó un informe sobre los peligros de los robots de combate totalmente autónomos y armas robóticas e instó a todos los gobiernos a renunciar a su desarrollo. Informe de la organización presentó una de 50 páginas, pero su esencia se puede expresar en una frase - robots independientes pueden matar indiscriminadamente. Los militares insisten en que sólo la inteligencia artificial y la robótica en gran medida puede reducir los daños colaterales y el número de víctimas civiles.
De acuerdo con el informe "La pérdida de la humanidad: El caso contra robots asesinos" (Perdiendo la Humanidad: El caso en contra robots asesinos), preparado por la Human Rights Watch (HRW), robots de combate totalmente autónomos o sistemas de armas serán desarrollados y puestos en servicio en los próximos 20-30 años. Se dedica al desarrollo de países más o menos desarrollados tecnológicamente, en especial Estados Unidos, más que ningún otro más cercano a un auto-drones. Excluir a una persona de sistemas de gestión de armas y equipo militar, según el informe, es imposible, ya que en este caso se violaron varias disposiciones del derecho internacional humanitario.
Guerra ley
Una serie de estudios, HRW concluyó que "los robots son los mecanismos, lo que permite percibir el mundo y actuar de acuerdo con el programa". Están todos en mayor o menor grado de autonomía tiene, que es capaz de tomar cualquier acción, sin intervención humana. El grado de autonomía de los aviones no tripulados pueden variar significativamente dependiendo del modelo. Los robots pueden ser condicionalmente dividido en tres categorías: el "man-in-the-control del sistema" (human-in-the-loop), "hombre-de-sistema-control" (humano-on-the-loop) y "el hombre fuera el sistema de control" (humano-hacia fuera-de-la bucle-).
La primera implica que una máquina no tripulado puede detectar automáticamente y elegir los objetivos, pero la decisión sobre su Destrucción toma sólo un operador humano. La segunda categoría incluye los sistemas que automáticamente puede detectar y elegir metas y tomar decisiones sobre su destrucción, sino un operador humano, en calidad de observador, podrá en cualquier momento intervenir en la cadena. Por último, la tercera categoría incluye robots de HRW que pueden localizar, seleccionar y destruir objetivos sin ninguna intervención humana. Desde
la perspectiva del derecho internacional humanitario, es la última
categoría de sistemas de combate autónomos representan el mayor peligro
para la población civil en una zona de guerra. En la final, que se utiliza para la
mayoría de la comunidad internacional "derecho de la guerra" se dedica a
la protección de la población civil de los efectos de las hostilidades.
Según el HRW, los autónomos robots militares no sólo cumplen los requisitos
de la ley humanitaria internacional, pero también puede causar aún más
su violación, o es el rechazo de las convenciones y los tratados
existentes. En primer lugar, el uso de sistemas robóticos con un alto grado de autonomía viole las disposiciones básicas de la Convención de Ginebra
sobre la protección de las víctimas de los conflictos armados
internacionales, que entró en vigor en 1950, y completada con tres
protocolos principales en 1977 y 2005.
Así, el artículo 36 del Protocolo I de los Convenios de Ginebra exigen
que todos los países "en el estudio, desarrollo, adquiera o adopte una
nueva arma, medios o métodos de guerra," ellos verificar el cumplimiento
de la ley internacional. Por lo tanto, todas las armas han creado en cada etapa de desarrollo se
someten a pruebas y evaluación del peligro para la población civil en
caso de su uso operativo.
Por ejemplo, según activistas de derechos humanos, no pase esta prueba
de bombas de racimo, las submuniciones sin estallar, que sólo aumentó el
número de víctimas civiles.
Por cierto, para la detección rápida de las bombas los zapadores
que estaban pintaban de colores brillantes y esto atraen a los niños y sólo aumentó el numero de víctimas civiles. Ahora municiones en racimo tienen un temporizador de autodestrucción y no son más peligrosos que una bomba ordinaria. Los Estados no van a llevar a cabo y evaluar adecuadamente el futuro de
los robots para el cumplimiento del derecho internacional, se cree que
HRW.
Además, los robots autónomos no sólo se violan las disposiciones de los
Convenios de Ginebra, sino también los requisitos de la Declaración de
Martens (presentada a principios de la década de 1900, el ruso Martens
abogado, fue la base de la Convención sobre las leyes y costumbres de la
guerra terrestre).
De acuerdo con esta declaración, "la población y los beligerantes
quedan bajo la protección y autoridad de los principios de la ley, tal
como resultan de costumbre establecida entre los pueblos civilizados, de
las leyes de humanidad y los dictados de la conciencia pública".
En general, los robots autónomos que representan una amenaza directa a
los no combatientes o vybyvshemu conflicto militar de la población. Según HRW, estos sistemas "no tienen emociones humanas" y no son capaces de comparar y contrastar las acciones de las personas.
Y, dado que los robots no pueden simpatizar, van a matar el, herido y
se retiró de la lucha (depuesto las armas) opositores a pesar de que
está prohibido por las Convenciones de Ginebra. En este robot autónomo, no importa que tan perfecto que puede ser
poseído inteligencia artificial, no puede en ningún análisis de alto
nivel de la conducta de la gente está en frente de ellos.
Como se ha señalado por HRW, si el soldado-el hombre no va a ser
difícil de distinguir "una especie de miedo de civil" y una "amenaza de
combatientes", el robot no puede.
Además, no van a ser capaces de predecir las consecuencias de ciertas
acciones del hombre y, por tanto, dejar de reconocer el cambio en el
estado de ánimo del enemigo, si está en oposición al robot quiere, por
ejemplo, la entrega a. Además,
la falta de emoción también robots los convierten en una herramienta
atractiva para la represión y la dictadura - drones simplemente no
llegará a la "cabeza" de rebelarse contra las órdenes inhumanas "de las
autoridades."
Corea del Sur robot guardia SGR-1.
Sin el hombre
Mientras tanto, la creación de sistemas robóticos autónomos es considerado por muchos gobiernos prioridad. Así, a finales de 2010, el Ministerio de Defensa anunció el "Plan de desarrollo e integración de sistemas autónomos en los años 2011-2036".
Según el documento, el número de aire, la tierra y bajo el agua los sistemas autónomos se incrementará, y los desarrolladores para definir la tarea de capacitar a los vehículos "independencia supervisada" (toda la gente controles), y en el extremo. "Total independencia" y la en este caso, los EE.UU. la Fuerza Aérea cree que una inteligencia artificial prometedor durante la batalla será capaz de tomar decisiones que no violen la ley.
Es cierto que el Pentágono también toma nota de que en un futuro próximo con el uso de sistemas autónomos decidir sobre el uso de las armas y la orientación se mantendrá bajo el control del hombre. Una posición similar es compartida por el Ministerio de Defensa británico en 2011, ha anunciado que el país no está interesado en la creación de un sistemas robóticos totalmente independientes. Según HRW, tales declaraciones son dignas de elogio, pero insuficiente - en las futuras visitas de los departamentos militares a los robots independientes pueden cambiar dramáticamente.
Ellos mismos, los militares creen que los robots - no mal, pero bueno.
En particular, no se ponga en peligro la vida de los soldados en el campo de batalla son totalmente reemplazados por máquinas. Además, en el uso final de la producción de sistemas autónomos permitirá un importante ahorro en los seguros, la atención de salud, la formación, mantenimiento y reciclaje de los soldados profesionales. Con la llegada masiva de robots de combate de las fuerzas armadas se reducirá considerablemente, centrándose sólo en la formación de técnicos y operadores.
La pérdida de los robots en la guerra puede compensar la producción de nuevos sistemas para sustituir retirado hacia abajo - para proporcionar un rápido "producción" de los soldados en las cantidades adecuadas es imposible. Por último, según los militares, que los robots y armas robóticas reducirá significativamente los daños colaterales y el número de víctimas entre la población civil. Así, en el Departamento de Defensa de EE.UU. creen que el eslabón más débil de la cadena robotozirovannyh sistemas es sólo una persona - operador no puede dormir, cansado o enfermo, que aumenta en gran medida la probabilidad de un error fatal.
"Iron Dome"
El uso de
robots en los sistemas modernos de los dispositivos de inteligencia,
vigilancia y reconocimiento, como sensores de alta precisión, los
radares de alta potencia, cámaras, sonar, equipos láser, mecanismos de
precisión que eliminarían la posibilidad, por ejemplo, alcanzado por un
obús o una bomba no es el objeto que se originalmente planeado.
"Sus" robots no se tocan - el sistema no permitirá que "nosotros y
ellos", que por cierto, ya está integrado en el equipo desarrollado por
el "soldado del futuro" en los EE.UU., Francia, Alemania y Rusia. En resumen, los robots son ideales militares del campo de batalla robots en un futuro lejano.
Requisitos previos para un sistemas totalmente autónomos, según HRW, ya definida. Por ejemplo, los modernos sistemas de defensa aérea puede funcionar en modo totalmente automático. Por ejemplo, los complejos tienen propiedades tales como los patriot americanos, el ruso S-400 o israelí "Cúpula de Hierro". En julio de 2010, Corea del Sur comenzó a colocadar
en la frontera con robots de patrulla de Corea del Norte capaces de
controlar las zonas fronterizas, detectar a los infractores y, con la
aprobación del operador abrir fuego contra ellos. Los EE.UU. está desarrollando aviones con base en portaaviones no
tripulado X-47B, la cual, aunque no se usar armas, pero sin la
intervención humana puede repostar en el aire y producir repostar otros
aviones, incluyendo tripulados y vino a la tierra en la cubierta de un
portaaviones, despegar, realizar reconocimientos e identificar
objetivos. Y todo lo que hará más rápido y más humano. De hecho, los científicos y los fabricantes sólo tienen que desarrollar
un fiable sistema de autoaprendizaje con inteligencia artificial, que
uniría la tecnología existente. Sobre todo porque la red neuronal artificial ya aprendió a reconocer las imágenes de gatos, la cara y partes del cuerpo humano.
Y los argumentos a favor de un sistema completamente autónomo, según los militares, existen más que en contra. Por ejemplo, supongamos que un prometedor caza sexta generación luchador estadounidense será un aparato no tripulado hipersónico.
Teniendo en cuenta que las velocidades de vuelo de más de cinco mil
kilómetros por hora y un gran volumen de datos de entrada (y sus drones
ya dado más
que capaz de manejar a la gente), el operador simplemente no puede
tomar las soluciones en tiempo situacionales necesarias, parece que este
trabajo tendrá que pasar "hombros" de la inteligencia artificial. Pero queda abierta una pregunta importante: ¿es ético transferir el
derecho de abordar las cuestiones de la vida y la muerte en combate de
un mecanismo artificial?
Porque, nos guste o no, la muerte del hombre por el hombre, la acción
parece más lógico (o por lo menos más emocionalmente justificado) que
matar a un hombre-máquina.
En el primer caso, se puede mirar hacia fuera para un asesinato de una
explicación racional, en la segunda, y la verdad, el derecho a hablar de
la aparición de la gran tribulación.
Fuente: http://lenta.ru/
Comentarios
Publicar un comentario
EL APARTADO DE COMENTARIOS DE ESTE BLOG ESTÁ MODERADO. SI EL COMENTARIO CONTIENE INSULTOS HACIA UNA NACIÓN, PERSONA ETC... SERÁ BORRADO AL INSTANTE PARA UNA MEJOR CONVIVENCIA EN EL MISMO, UN SALUDO Y GRACIAS POR COMENTAR.