Chris Sestito, fundador de una empresa de seguridad, preocupado por la inteligencia artificial: "Puede salirse de control muy rápidamente"
Chris Sestito, cofundador y CEO de HiddenLayer, una startup de ciberseguridad enfocada en prevenir ataques de inteligencia artificial, ha expresado su preocupación respecto a la posibilidad de que la IA se descontrole rápidamente si no se manejan adecuadamente las definiciones y enfoques relacionados con su seguridad. Su principal argumento es que los enfoques reduccionistas en la regulación de esta tecnología pueden ser peligrosos, ya que lo suyo es abordar integralmente sus múltiples dimensiones.En una reciente entrevista con Axios, Sestito critica la tendencia de separar artificialmente aspectos técnicos y éticos en las políticas de IA. Señala, por ejemplo, que esta división entre "sesgos algorítmicos" y "amenazas de seguridad" es engañosa y no refleja la realidad compleja de los desafíos que presenta la inteligencia artificial. Además, basa su argumento en casos concretos donde problemas que podrían considerarse puramente técnicos, como algoritmos que generan instrucciones para fabricar armas, tienen consecuencias sociales significativas y directas.No podemos tratar los desafíos de la IA de forma superficial o aislada, hay que considerarlos de manera conjuntaEsta perspectiva adquiere relevancia tras el reciente cambio de denominación del Instituto de Seguridad en IA del Reino Unido a Instituto de Seguridad Cibernética en IA, y los recortes presupuestarios planeados en la institución estadounidense equivalente. Para el empresario, que cuenta con más de una década de experiencia liderando equipos globales de investigación de amenazas, inteligencia, ingeniería y ciencia de datos, estos movimientos reflejan una visión limitada que equipara seguridad con protección contra hackeos.Sin embargo, esta manera de actuar ignora dimensiones importantes, como las vulnerabilidades que permiten extraer información sensible de los modelos y las decisiones algorítmicas discriminatorias en ámbitos judiciales o médicos. Eso por no hablar de la creación de contenido peligroso, desde manuales para fabricar explosivos hasta materiales de abuso infantil.Por otro lado, en el artículo publicado por la web de noticias estadounidense se puede ver cómo el cofundador de HiddenLayer rechaza rotundamente asociar las preocupaciones sobre seguridad en inteligencia artificial con debates sobre censura. Si bien es cierto que reconoce paralelismos con las polémicas en redes sociales, enfatiza que los riesgos de la IA trascienden en absoluto ese ámbito:"Esto incluye desde mantener secretos nucleares fuera de los modelos hasta prevenir su uso en ciberataques masivos", dice Chris Sestito.Además, sus declaraciones surgen en un contexto donde EE.UU. y Reino Unido se negaron a firmar la declaración internacional sobre una IA ética, inclusiva y segura en la cumbre de París, celebrada hace unas semanas, diferencia de Europa y otros 60 países, que abogaron por un enfoque basado en principios éticos y sostenibles. Sestito, también conocido como "Tito", interpreta esta decisión como una muestra de que ambos países priorizan el crecimiento económico y la competitividad sobre medidas regulatorias integrales.El director ejecutivo de HiddenLayer considera que los marcos regulatorios hasta la fecha han sido insuficientes, además de muy poco efectivos. ¿El motivo? Según él, la falta de coordinación internacional, los recortes en investigación de seguridad y la subestimación de riesgos, pues siempre actúan de forma reactiva en vez de preventiva. Para terminar, apunta que la clave está en desarrollar políticas que integren perspectivas técnicas, éticas y geopolíticas.El artículo Chris Sestito, fundador de una empresa de seguridad, preocupado por la inteligencia artificial: "Puede salirse de control muy rápidamente" fue publicado originalmente en Andro4all.

Chris Sestito, cofundador y CEO de HiddenLayer, una startup de ciberseguridad enfocada en prevenir ataques de inteligencia artificial, ha expresado su preocupación respecto a la posibilidad de que la IA se descontrole rápidamente si no se manejan adecuadamente las definiciones y enfoques relacionados con su seguridad. Su principal argumento es que los enfoques reduccionistas en la regulación de esta tecnología pueden ser peligrosos, ya que lo suyo es abordar integralmente sus múltiples dimensiones.
En una reciente entrevista con Axios, Sestito critica la tendencia de separar artificialmente aspectos técnicos y éticos en las políticas de IA. Señala, por ejemplo, que esta división entre "sesgos algorítmicos" y "amenazas de seguridad" es engañosa y no refleja la realidad compleja de los desafíos que presenta la inteligencia artificial. Además, basa su argumento en casos concretos donde problemas que podrían considerarse puramente técnicos, como algoritmos que generan instrucciones para fabricar armas, tienen consecuencias sociales significativas y directas.
No podemos tratar los desafíos de la IA de forma superficial o aislada, hay que considerarlos de manera conjunta
Esta perspectiva adquiere relevancia tras el reciente cambio de denominación del Instituto de Seguridad en IA del Reino Unido a Instituto de Seguridad Cibernética en IA, y los recortes presupuestarios planeados en la institución estadounidense equivalente. Para el empresario, que cuenta con más de una década de experiencia liderando equipos globales de investigación de amenazas, inteligencia, ingeniería y ciencia de datos, estos movimientos reflejan una visión limitada que equipara seguridad con protección contra hackeos.
Sin embargo, esta manera de actuar ignora dimensiones importantes, como las vulnerabilidades que permiten extraer información sensible de los modelos y las decisiones algorítmicas discriminatorias en ámbitos judiciales o médicos. Eso por no hablar de la creación de contenido peligroso, desde manuales para fabricar explosivos hasta materiales de abuso infantil.
Por otro lado, en el artículo publicado por la web de noticias estadounidense se puede ver cómo el cofundador de HiddenLayer rechaza rotundamente asociar las preocupaciones sobre seguridad en inteligencia artificial con debates sobre censura. Si bien es cierto que reconoce paralelismos con las polémicas en redes sociales, enfatiza que los riesgos de la IA trascienden en absoluto ese ámbito:
"Esto incluye desde mantener secretos nucleares fuera de los modelos hasta prevenir su uso en ciberataques masivos", dice Chris Sestito.
Además, sus declaraciones surgen en un contexto donde EE.UU. y Reino Unido se negaron a firmar la declaración internacional sobre una IA ética, inclusiva y segura en la cumbre de París, celebrada hace unas semanas, diferencia de Europa y otros 60 países, que abogaron por un enfoque basado en principios éticos y sostenibles. Sestito, también conocido como "Tito", interpreta esta decisión como una muestra de que ambos países priorizan el crecimiento económico y la competitividad sobre medidas regulatorias integrales.
El director ejecutivo de HiddenLayer considera que los marcos regulatorios hasta la fecha han sido insuficientes, además de muy poco efectivos. ¿El motivo? Según él, la falta de coordinación internacional, los recortes en investigación de seguridad y la subestimación de riesgos, pues siempre actúan de forma reactiva en vez de preventiva. Para terminar, apunta que la clave está en desarrollar políticas que integren perspectivas técnicas, éticas y geopolíticas.
El artículo Chris Sestito, fundador de una empresa de seguridad, preocupado por la inteligencia artificial: "Puede salirse de control muy rápidamente" fue publicado originalmente en Andro4all.
What's Your Reaction?






