El creador de Tesla y otros importantes referentes del mundo IT firmaron un compromiso para frenar el avance del machine learning en estos casos. Además, instaron a los gobiernos de todo el mundo a tomar medidas preventivas en este sentido
Elon Musk; el cofundador de Skype Jaan Tallinn y otros referentes del mundo tecnológico firmaron un documento donde se comprometen a "no participar ni apoyar el desarrollo, fabricación, venta o uso de armas letales autónomas". El anuncio se hizo ayer en Estocolmo, Suecia, en el marco de la Conferencia Internacional Anual sobre Inteligencia Artificial (IJCAI, por sus siglas en inglés).
Este compromiso fue suscriptos por más de 2.400 personas y 160 compañías de 36 países, que están relacionadas con el desarrollo de inteligencia artificial. Entre ellos hay representantes del MIT, Boston University, UC Berkeley y Cambridge University.
La iniciativa fue organizada por Future of Life Institute (FLI), una organización sin fines de lucro de la que forman parte los principales investigadores de inteligencia artificial todo el mundo y que, justamente, busca alertar sobre el desarrollo de este tipo de sistemas.
Si bien destacan los beneficios y avances de las nuevas tecnologías, subrayan que es necesario regular el desarrollo y, sobre todo, asegurarse de que no se haga un uso del machine learning sin ningún tipo de control porque podría derivar en un escenario peligroso.
Puntualmente se habla de las armas letales con sistemas autónomos (LAWS, por sus siglas en inglés), que son dispositivos que pueden identificar apuntar y matar a una persona por su cuenta. Sin que intervenga un humano.
"La inteligencia artificial (IA) desempeñará un rol cada vez más importante en los sistemas militares. Hay una oportunidad y necesidad urgentes para que los ciudadanos, los legisladores y los líderes distingan entre los usos aceptables e inaceptables de la inteligencia artificial ", se destaca en el documento.
Por su parte, uno de los firmantes de este documento, Toby Walsh, que es miembro de la Universidad de New South Wales en Sidney, Australia, destacó que "no les podemos dejar la decisión sobre quién vive y quién muere a las máquinas. Ellas no tienen la ética para hacer eso".
Y en este sentido, instó a todos los presentes en la conferencia, así como a los gobiernos, a tomar cartas en el asunto para que la "guerra no se vuelva más terrible" a raíz del uso indiscriminado de este tipo de tecnología.
"Los firmantes solicitamos que los gobiernos y sus líderes generen normas, regulaciones y leyes fuertes en contra de las armas letales autónomas", escribieron.
Más allá de las cuestiones éticas, se remarca que las armas con inteligencia artificial pueden llegar a ser muy difíciles de controlar, porque se podrían hackear y caer en manos de cualquiera.
El tema del avance de la inteligencia artificial es una preocupación de varios sectores. Ayer, la directora general de la Unesco, Audrey Azoulay, pidió un debate global sobre las consecuencias, especialmente éticas, del uso a gran escala de este tipo de tecnología.
Por otra parte, hace poco más de un mes, la Comisión Europea designó a 52 expertos para analizar cómo se debería encarar la regulación de la inteligencia artificial.
Comentarios
Publicar un comentario