Aunque se diseñe y aplique con la mejor de las intenciones, junto a los indudables beneficios existentes en el uso de la inteligencia artificial (IA), que pueden promover el derecho a una buena administración de los ciudadanos, por ejemplo, se han identificado ya los riesgos de la inteligencia artificial (IA) en múltiples ámbitos, así, los relativos a la causación de discriminación, la parcialidad o la invasión de la privacidad, debido, entre otros motivos, a los errores y sesgos que puede tener la IA, a los que hemos dedicado diversas entradas previas en este blog.
Al respecto, existen muchos códigos éticos de la IA, procedentes de diferentes segmentos de la sociedad mundial y de diversas disciplinas, que tratan de evitar y/o remediar estos riesgos de la IA. Algunos académicos y profesionales sostienen que un enfoque ético voluntario es apropiado para esta tecnología tan rápida y beneficiosa, y que debe evitarse la regulación legal porque podría sofocar la innovación y reducir los numerosos beneficios de la IA.
No estamos, sin embargo, de acuerdo, con este punto de vista.
Esta apelación pública continua sólo a la Ética deja de lado el Derecho, y debemos recordar que el Derecho es un mínimo básico de las sociedades civilizadas para evitar la jungla (digital). En realidad, ese interés en subrayar la Ética y orillar al Derecho podría tener motivaciones específicas. Así, se ha dicho que los debates actuales en la política y la industria de la IA están motivados por la imagen y las relaciones públicas, donde la etiqueta «ética» no es en realidad mucho más que el nuevo «verde», quizás utilizado para «lavar la ética».
En la misma línea, Yeung es especialmente clara cuando subraya que el actual discurso sobre la «ética de la IA» se enmarca de una manera que tiende a favorecer la autorregulación de la industria, basándose en suposiciones cuestionables de que se puede confiar en que la industria tecnológica marque sus propios deberes (AI and the law (birmingham.ac.uk)). Aún con más contundencia, MUNN señala que los principios éticos de la IA son inútiles, al no poder mitigar los daños raciales, sociales y medioambientales de las tecnologías de IA en ningún sentido significativo. El resultado es una brecha entre los principios de alto nivel y la práctica tecnológica. Según su opinión, el giro dominante hacia los principios de la IA no sólo es infructuoso, sino que constituye una peligrosa distracción que desvía inmensos recursos financieros y humanos de actividades potencialmente más eficaces, por lo que, cree que deberían desplegarse enfoques alternativos que reflexionen sobre la justicia de la IA y que vayan más allá de los principios éticos (MUNN, L. (2022): “The uselessness of AI ethics”, AI and Ethics, agosto).
Como uno de nosotros ha expuesto con detalle recientemente, sí creemos que la ética tiene un papel en relación con la IA, en aquellos espacios donde existe una discrecionalidad otorgada por la norma jurídica al decisor público, por ejemplo. Pero estamos de acuerdo con las opiniones expuestas que subrayan los riesgos de distracción y los intereses ocultos de aquellos que insisten sólo en la ética.
Afortunadamente, en el contexto europeo, últimamente las llamadas a la necesidad de la regulación se han hecho notablemente más frecuentes, lo que explica la propuesta de Reglamento la UE de regular la IA, actualmente en discusión.
También empiezan a surgir regulaciones de hard law que intentan afrontar los riesgos apuntados, como son los casos en España del art. 23 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación (BOE de 13 de julio), que se refiere a algunos de ellos, o el artículo 16.1.l de la Ley valenciana 1/2022, de 13 de abril, de Transparencia y Buen Gobierno, que considera como información con relevancia jurídica sometida a la obligación de publicidad activa por parte de la Administración la referida a “La relación de sistemas algorítmicos o de inteligencia artificial que tengan impacto en los procedimientos administrativos o la prestación de los servicios públicos con la descripción de manera comprensible de su diseño y funcionamiento, el nivel de riesgo que implican y el punto de contacto al que poder dirigirse en cada caso, de acuerdo con los principios de transparencia y explicabilidad”.
Por tanto, el Derecho es fundamental, ya que una regulación adecuada en determinados casos es imprescindible para proporcionar la mencionada confianza en la IA. Es necesario prevenir los graves riesgos que presenta la IA, de acuerdo con el principio de precaución en el ámbito social ante los daños que pueden causar las decisiones automatizadas – que, como dijimos, pueden sufrir errores (bugs) y sesgos, por ejemplo – y proporcionar seguridad jurídica a los operadores económicos.
Al igual que los elementos básicos de cualquier Estado de Derecho, el derecho de la IA está ligado a la necesidad de la existencia de una norma previa para la actuación administrativa con la IA, al reconocimiento de los derechos de los individuos y grupos que no pueden ser vulnerados por la IA (intimidad, igualdad, en el caso de las administraciones los principios bien establecidos del derecho administrativo, como el de buena administración, que incluye el deber de diligencia o cuidado debido, el debido proceso, el deber de motivación…), a la adecuada protección de estos derechos por vía administrativa y judicial, y al establecimiento de un sistema de responsabilidad por los daños que pueda causar la IA.
Aunque estos elementos pueden estar ya presentes dondequiera que haya un Estado de Derecho, han sido diseñados y aplicados en contextos tradicionales en los que las decisiones públicas y privadas eran tomadas únicamente por humanos y no estaban hechas o informadas por la inteligencia artificial. Así, parece inevitable que el sistema jurídico deba adaptarse a esta nueva realidad con un nuevo Derecho afinado. Sin embargo, también es necesario reflexionar sobre este nuevo Derecho. Al referirse al futuro Derecho de la IA, ¿qué tipo de Derecho se puede considerar? El Derecho puede ser (y debe ser) un factor que permita la innovación en un marco de confianza y seguridad jurídica.
En consecuencia, la elección no es ni puede ser entre regulación o ética, lo cual es una falacia. Es posible tener una regulación eficaz, flexible y moderna y una ética útil en los ámbitos abiertos a las decisiones de los actores de la IA en los que el Derecho no puede o no quiere entrar. De la misma manera, no hay un dilema entre regulación y autorregulación, sino que hay que estudiar en cada caso qué es lo que conviene al interés general y qué alternativa es la más conveniente. En la UE hay casos en los que la autorregulación revela problemas, y no puede funcionar correctamente sola, como ha subrayado también la OCDE. Por lo tanto, no es posible decidir cómo regular utilizando modelos apriorísticos, que a veces se utilizan en el debate público como resultado de evidentes intereses ideológicos y económicos a favor o en contra de la actividad pública o privada.
La regulación en general, y la regulación de la IA, puede ser, en primer lugar, una autorregulación y en segundo lugar una regulación, prohibiendo y sancionando ciertas conductas en determinados casos (command and control). Sin embargo, este tipo de regulación puede ser complementada o incluso sustituida, dependiendo de las circunstancias, por una regulación conductual, basada en conocimientos sobre el comportamiento y que utiliza acicates (nudges), de los que hemos hablado repetidamente en este blog, para lograr los intereses generales con medidas menos restrictivas, favoreciendo el principio de proporcionalidad.
Además, la regulación clásica y la conductual pueden, a su vez, utilizar mecanismos modernos para garantizar una mejor regulación que permita alcanzar las compensaciones que los reguladores deben afrontar entre los diferentes conjuntos de intereses públicos y privados.
Es el caso de la regulación experimental, como por ejemplo en el caso de los sandboxes, esto es, cajas de arena o areneros, un término que proveniente del ámbito de la computación designa un entorno de pruebas para nuevos modelos de negocio supervisados por las instituciones regulatorias.
La propuesta de la UE para una regulación de la IA incluye, precisamente, esta posibilidad en los arts. 53 y ss .
Pues bien, es en este marco descrito, que el pasado 8 de noviembre de 2022 tuvo lugar el V Living Lab de Buen gobierno y regulación, que, en esta ocasión, se desarrolló en formato online. El tema de la sesión fue la experimentación, con especial consideración de los sandboxes, en el marco de la evaluación de políticas públicas y la calidad normativa. Dado el interés de la sesión, pasamos a explicar brevemente los puntos principales tratados y su posible relevancia para la IA.
La sesión se inició con la bienvenida del Prof. Juli Ponce, Catedrático de Derecho Administrativo de la Universitat de Barcelona, y de los representantes de las instituciones colaboradoras en el Living Lab y en el posterior Anuario del Buen Gobierno y de la Calidad de la Regulación, que será publicado por cuarta vez por la Fundación Democracia y Gobierno Local en 2023, y en el que se recogerán y desarrollarán algunas de las ideas que surgieron durante la sesión.
Así, dieron la bienvenida el Sr. Moreno (Fundación Democracia y Gobierno Local) y el Sr. López (Comisión Nacional del Mercado y de la Competencia, CNMC). A continuación, los Profs. Ponce, Villoria y Capdeferro, y el Sr. Menéndez, presentaron el tema objeto del Living Lab y expusieron la estructura de la jornada.
Se recordó que un Living Lab es un sistema para innovar en retos sociales de manera colaborativa. Las principales diferencias entre el modelo Living Lab y otros modelos participativos tradicionales serían que aporta contextos más creativos, con horizontalidad y empatía; más representativos, pues la comunidad que participa (que va más allá de la puramente académica) se articula en función del reto a resolver; y más innovadores, pues busca la experimentación, la co-creación con líneas de maduración más largas.
Además, este tipo de Living Lab puede constituirse en un hub para compartir información y experiencias. Cada vez más, las universidades utilizan esta metodología.
Específicamente, en el campo que ocupa al Anuario, los Living Lab, sirven para:
- Evaluar midiendo los impactos de las normas ex -ante.
- Iniciar prácticas de evaluación ex -post, muy escasas aún en España. La tarea académica de un Living Lab permite, en las apenas desarrolladas evaluaciones ex post confiar en la institución universitaria pública para diseñar protocolos de evaluación, recoger datos, evaluarlos, etc.; y ponerlos a disposición imparcial de reguladores y de regulados, con objetividad, imparcialidad y neutralidad.
- Realizar formación en buen gobierno y mejora de la regulación.
- Labor de banco de pruebas regulatorio, realizando test, pruebas piloto, sandboxes, etc, antes de aprobar una normativa. Ello es posible hacerlo en una fase temprana, incluyendo los momentos temporales anteriores al inicio, del procedimiento administrativo formal de aprobación de reglamentos o proyectos de ley.
- Foro de diálogo entre administraciones y ciudadanos, entre reguladores y regulados, que permita avanzar en el conocimiento de los intereses públicos y privados implicados para la definición reguladora del interés general.
- Ofrecer inputs valiosos desde la sociedad a los autores de las contribuciones del Anuario a publicar al año siguiente.
El V Living Lab y el futuro Anuario se dedican a la experimentación en el desarrollo de políticas públicas y normas jurídicas, con especial atención al mundo local, porque se trata de un tema poco explorado aún en España y necesitado de reflexión para su creciente aplicación en la práctica. En otros países, es una cuestión que ha preocupado ya a prestigiosas instituciones, como el Conseil d´État francés, que dedicó un informe monográfico a este tema a petición del Primer Ministro francés, o la Universidad de Harvard, que ha impulsado una publicación en la revista Science sobre estas cuestiones en el ámbito jurídico.
Tras la presentación de la jornada, se dio paso al primer bloque de trabajo, dedicado a la innovación en la regulación estatal a partir de los sandboxes regulatorios.
En este bloque, la primera intervención fue introductoria, y corrió a cargo del Sr. Joaquín López y el Sr. Juan Manuel Contreras (CNMC). En especial, se destacaron varios ámbitos en los que, desde la CNMC, se ha propuesto emplear sandboxes, como son el fintech (sector financiero), la movilidad urbana y el sector energético, aunque al menos dos tipos de problemas en relación a la competencia podrían surgir con el empleo de esta técnica: problemas de selección (referidos a la posible desigualdad entre las empresas que efectivamente acceden al sandbox y las que no) y de participación (por posibles ventajas derivadas de haber accedido al sandbox, como podría ser una ventaja informativa que generara desigualdad entre empresas).
Asimismo, se enmarcó conceptualmente el sandbox regulatorio, a partir de las características que identifica el informe The role of sandboxes in promoting flexibility and innovation in the digital age, publicado por la OCDE en 2020: debe existir una auténtica innovación, por un uso alternativo de tecnología existente o novedosa; deben poder generarse beneficios para los consumidores; el proyecto de la empresa debe ser suficientemente maduro; la duración de las pruebas debe ser limitada, así como el ámbito geográfico; y deben establecerse mecanismos de salvaguarda para los diversos intervinientes en las pruebas.
A continuación, el Sr. Andrés Barragán, director del gabinete técnico y de análisis financiero de la Secretaría General del Tesoro y Financiación Internacional, Ministerio de Asuntos Económicos y Transformación Digital, presentó el sandbox previsto en el sector financiero.
Este es el primer sandbox regulado en el Estado español, y se encuentra previsto en la Ley 7/2020, de 13 de noviembre, para la transformación digital del sistema financiero.
En el preámbulo de dicha ley, se presenta el sandbox regulatorio en los siguientes términos: “El Título II se configura como la parte central de la Ley, ya que regula el espacio controlado de pruebas, es decir, con características propias, lo que en el ámbito europeo e internacional viene llamándose regulatory sandbox. Se trata de un conjunto de disposiciones que amparan la realización controlada y delimitada de pruebas dentro de un proyecto que puede aportar una innovación financiera de base tecnológica aplicable en el sistema financiero, definida como aquella que pueda dar lugar a nuevos modelos de negocio, aplicaciones, procesos o productos con incidencia sobre los mercados financieros, la prestación de todo tipo de servicios financieros y complementarios o el desempeño de las funciones públicas en el ámbito financiero”.
El Sr. Barragán expuso el funcionamiento de dicho sandbox. El mismo se puso en práctica en 2021 y cuenta con 4 cohortes de presentación de proyectos al sandbox. Señaló como ya se cuenta con 100 proyectos acumulados, lo que es número muy elevado en comparación con otros países, que se situaría en línea con la situación en el Reino Unido, lo que demuestra el interés en el sector. Para el ponente, se está ante una revolución en el sector financiero, por la transformación digital. Entre los proyectos, existe mucho interés en temas identidad digital y biometría.
El Sr. Barragán enfatizó la necesidad de agilidad en la valoración por parte de las autoridades regulatorias intervinientes (Banco de España, CNMC y Dirección General de Seguros), puesto que tienen que coordinarse para emitir un informe dando luz verde al sandbox.
Art. 7: 2 de la ley mencionada. “En el mes siguiente a la fecha de finalización del plazo de admisión de solicitudes previsto en el artículo 6.3 de esta Ley, las autoridades supervisoras evaluarán mediante informe motivado las solicitudes que afecten a su ámbito de competencia y remitirán a la Secretaría General del Tesoro y Financiación Internacional el listado de proyectos que aporten valor añadido sobre los usos ya existentes y que cumplan con los demás requisitos previstos en el artículo 5.”
Una vez admitido el proyecto, se negocia un protocolo con el promotor para la fase de pruebas
Artículo 8 de la ley mencionada “Protocolo de pruebas.
1. Cuando un proyecto reciba una evaluación previa favorable conforme a lo dispuesto en el artículo 7, en el plazo de tres meses desde la publicación de la misma se suscribirá un protocolo de pruebas entre el promotor y la autoridad o autoridades supervisoras que, conforme al apartado 3 de dicho artículo, hayan sido designadas responsables del seguimiento del proyecto por razón de su competencia material.
2. El protocolo establecerá las normas y condiciones a las que se sujetará el proyecto piloto en el que se desarrollarán las pruebas e incluirá, entre otras, las siguientes cuestiones:
a) La limitación en cuanto al volumen de usuarios y operaciones, importe de estas últimas y tiempo de realización de las pruebas.
b) La forma en la que se llevará a cabo el seguimiento de las pruebas conforme a lo dispuesto en el artículo 15 de esta Ley. En particular, se detallará la información que se facilitará a las autoridades y el modo de acceder a dicha información.
c) Las fases del proyecto y los objetivos a alcanzar en cada una de las fases junto con el alcance de cada prueba y la duración de las mismas.
d) Los recursos con los que tendrá que contar el promotor para llevar a cabo las pruebas.
e) Un completo sistema de garantías e indemnizaciones de acuerdo con lo previsto en el apartado 3 de este artículo y en el Capítulo II del presente Título y, en concreto, el régimen de garantías que resulte adecuado para cubrir la eventual responsabilidad del promotor conforme a lo previsto en el artículo 13.
f) En su caso, cláusulas de confidencialidad, así como disposiciones, sujetas a la regulación específica, sobre los derechos de propiedad industrial e intelectual o secretos empresariales que pudieran verse afectados durante la realización de las pruebas.
g) Cualquier otra cuestión que a juicio del promotor o de la autoridad responsable del seguimiento de las pruebas pueda resultar relevante para su desarrollo.
3. En el protocolo se establecerán todas las cautelas necesarias para garantizar en cada prueba un sistema específico de protección de los participantes que sea proporcionado al nivel de riesgo del proyecto, conforme a los objetivos establecidos en la legislación vigente en materia de protección de datos, protección de los usuarios de servicios financieros y prevención del blanqueo de capitales y financiación del terrorismo. Asimismo, se establecerán cuantas cautelas sean necesarias para garantizar que la realización de las pruebas no afectará a la estabilidad financiera, la integridad de los mercados financieros o a terceros no participantes en las pruebas.
Los tratamientos de datos de carácter personal de las personas físicas se realizarán con estricta sujeción a lo dispuesto en el Reglamento (UE) 2016/679 del Parlamento Europeo y el Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de sus datos personales y a la libre circulación de estos datos y en el resto de la normativa sobre protección de datos personales.
4. La Secretaría General del Tesoro y Financiación Internacional podrá publicar en su sede electrónica ejemplos de protocolos tipo u orientaciones generales sin carácter vinculante sobre el contenido de dichos protocolos.
Los protocolos podrán modificarse en cualquiera de sus previsiones por causas sobrevenidas, bien a instancia de las autoridades supervisoras o bien, previo visto bueno de estas últimas, a petición de los promotores, siempre que dicha modificación sea motivada y redunde en el buen desarrollo de las pruebas.”
El sistema se cierra con la previsión de la responsabilidad por posibles daños sufridos por los participantes.
Artículo 12 de la repetidamente citada ley: “Responsabilidad.
1. La responsabilidad por los daños sufridos por los participantes como consecuencia de su participación en las pruebas será exclusivamente del promotor cuando se produzcan por un incumplimiento suyo del protocolo, se deriven de riesgos no informados por él o cuando medie culpa o negligencia por su parte. En caso de daños derivados de fallos técnicos o humanos durante el transcurso de las pruebas la responsabilidad será igualmente del promotor.
Las autoridades que intervengan durante el desarrollo de las pruebas no serán responsables de los posibles daños y perjuicios que pudieran originarse.
2. No se considerarán daños las pérdidas que deriven de la fluctuación de los mercados conforme a lo establecido para cada caso en el correspondiente protocolo.
3. Los participantes serán resarcidos conforme al régimen previsto en el protocolo de las pérdidas patrimoniales y otros daños derivados directamente de dicha participación siempre que el promotor sea responsable del perjuicio causado conforme a lo previsto en este artículo.
4. En ningún caso podrá el protocolo prever que el promotor sea resarcido por la Administración de las pérdidas patrimoniales resultantes de su participación en el espacio controlado de pruebas.
Artículo 13. Garantías por daños.
En el momento de comienzo de las pruebas, los promotores dispondrán, conforme a lo establecido en el protocolo, de garantías financieras para cubrir la responsabilidad por los daños y perjuicios en los que pudieran incurrir conforme a lo previsto en el artículo anterior. Dichas garantías serán proporcionadas a los riesgos y podrán formalizarse o estar formalizadas, entre otros instrumentos, a través de seguros, avales bancarios o fianzas.”)
El Sr. Barragán cerró su exposición inicial con unas valoraciones finales, en las que subrayó la necesidad de coordinación de todas las instituciones y sectores, puesto que en su opinión esta técnica necesitará avanzar de forma horizontal en diversos sectores; destacó que en el específico campo del sandbox considerado la transformación digital es muy ágil muy rápida; y que el sandbox financiero en España tiene éxito en términos de atracción de promotores.
A efectos informativos, podemos indicar que resulta de interés la consulta de diversas páginas webs que ofrecen información sobre el funcionamiento de este sandbox, como ésta Sandbox financiero | Tesoro Público, ésta Banco de España – Servicios – Instituciones – Facilitadores de la innovación (bde.es) y ésta CNMV – Innovación financiera.
En concreto, es especialmente interesante la información del Banco de España, ya que esta institución elabora, conforme al artículo 17.3 de la Ley 7/2020, un documento de conclusiones valorando el desarrollo y resultados de las pruebas de los proyectos finalizados. En el momento de redactar esta nota, se encuentran disponibles los documentos de conclusiones de la primera cohorte, en la que, entre otros proyectos, se pueden leer las referidas a un proyecto sobre inteligencia artificial explicable para la calificación del riesgo crediticio, que mitigue el efecto de caja negra y sea explicable y transparente (NeuroDecision Technology – IA explicable en la gestión de riesgos).
Tras esta primera exposición, continuó la jornada con la Sra. Lucía Blanco, Subdirectora Adjunta de Prospectiva, Estrategia y Normativa en materia de Energía del Ministerio para la Transición Ecológica y el Reto Demográfico,con una presentación sobre las características del modelo de sandbox en el ámbito energético.
En este ámbito, el Real Decreto-ley 23/2020, de 23 de junio, por el que se aprueban medidas en materia de energía y en otros ámbitos para la reactivación económica, en su art. 4.11 introdujo una disposición adicional vigésima tercera en la Ley 24/2013, de 26 de diciembre, del Sector Eléctrico, según la cual “se podrán establecer bancos de pruebas regulatorios en los que se desarrollen proyectos piloto con el fin de facilitar la investigación e innovación en el ámbito del sector eléctrico”, amparados en convocatorias del Gobierno en las que se podrán establecer las particularidades y, en su caso, determinadas exenciones de las regulaciones del sector eléctrico que corresponda.
Finalmente, el modelo previsto legislativamente se ha desarrollado mediante el Real Decreto 568/2022, de 11 de julio, por el que se establece el marco general del banco de pruebas regulatorio para el fomento de la investigación y la innovación en el sector eléctrico.
“De este modo, en virtud de la habilitación que la disposición adicional vigésima tercera de la Ley 24/2013, de 26 de diciembre, otorga al Gobierno, mediante este real decreto se contribuirá a la transformación del sector eléctrico facilitando el proceso innovador pretendido al amparar, de forma controlada, delimitada y supervisada por la Administración competente, la realización de pruebas para el desarrollo de proyectos piloto con alto potencial innovador que redundarán finalmente en beneficio del consumidor, del sector eléctrico y de la sociedad en general.”
La ponente explicó sus características y cómo próximamente se publicará la primera convocatoria.
Expuso como les ha servido de modelo el sandbox financiero y como el desarrollo del sandbox en materia energética está incluido en el componente 8 del Plan estatal de Recuperación, Transformación y Resiliencia, transición energética justa e inclusiva 16062021-Componente8.pdf (lamoncloa.gob.es) (C8 R4 sandboxes o bancos de pruebas regulatorios).
La estructura se articula en torno a la preexistencia del marco normativo expuesto, la Convocatoria de acceso específica con evaluación previa de solicitudes y la suscripción de un protocolo de pruebas para cada proyecto. El reglamento mencionado contiene un concepto interesante en torno a las pruebas, el concepto de aprendizaje regulatorio, un ciclo de retroalimentación y mejora regulatoria.
“Artículo 23. Aprendizaje regulatorio.
La información extraída del desarrollo de los proyectos piloto, así como de la memoria prevista en el artículo 19, será tenida en cuenta en el procedimiento de elaboración de normas con rango de ley y de reglamentos, de acuerdo con lo establecido en el artículo 26.1 de la Ley 50/1997, de 27 de noviembre, del Gobierno”
Se observan puntos de conexión en la regulación de ambos sandboxes estatales (centrados en el diseño de un procedimiento, con indicaciones de requisitos de participación, forma de las convocatorias, evaluación, etc.), si bien cabría plantearse si la orientación de ambos sandboxes es la misma, ya que en el caso del sector financiero parece que el foco se pondría en la innovación tecnológica (así, el art. 1 de la Ley 7/2020 se refiere a “un entorno controlado de pruebas que permita llevar a la práctica proyectos tecnológicos de innovación en el sistema financiero con pleno acomodo en el marco legal y supervisor”), mientras que en el caso del sector de la energía podría atribuirse la centralidad a la innovación regulatoria (“llevar a cabo ensayos que permitan el desarrollo de proyectos piloto con el fin de facilitar la investigación, la innovación y la mejora regulatoria en el ámbito del sector eléctrico”, indica el art. 1 del Real Decreto 568/2022).
Se cerró este bloque de intervenciones con una conversación entre las personas asistentes al Living Lab, en el que se plantearon interesantes cuestiones y observaciones. Así, el sr. Joaquín López de la CNMC subrayó como los sandboxes pueden ofrecer seguridad jurídica y contribuir a la evaluación ex post, puesto que permiten identificar qué hay que cambiar. En ese sentido, se sostuvo, mejoran la capacidad de las AAPP de aprender. Planteó tres cuestiones referidas a:
- Seguridad jurídica: ¿con qué detalle se publican las pruebas para que otras empresas que no participen puedan aprender?
- Revisión de regulación: ¿hay obligación de revisar la regulación?
- Control de las autoridades regulatorias: ¿Puede existir algo de utilidad extraíble para mejorar el desarrollo de las tareas públicas?
El diálogo en torno a estas cuestiones con los dos ponentes destacó como, respecto a la seguridad jurídica, en estos espacios de prueba se detectan proyectos que se relacionan con ausencia de regulación, incertidumbre e inseguridad jurídica, lo que es útil para conocer lagunas jurídicas. Por otro lado, si bien no existe obligación jurídica de revisión de la regulación, estas pruebas ayudan mucho a comprender el sector y proveen de expertise a los reguladores, siendo también positivos para las empresas privadas que concurren y ven sus proyectos avalados como interesantes por los mismos.
También se suscitó, por intervención del Prof. Vaquer, una reflexión sobre el concepto de participantes. Una cosa es el promotor, otra distinta es el participante. No parece decirse mucho en las regulaciones mencionadas sobre los participantes. Eso ¿podría generar un riesgo de perder objetividad? Por ejemplo, los promotores podrían retribuir a los participantes, con la posible introducción de un sesgo.
Tras el debate y un descanso se inició el segundo bloque, dedicado específicamente al ámbito local.
En este segundo bloque, de turno abierto de palabra, el Prof. Ponce aludió al caso francés, con la llamada Loi Elan, una ley que prevé la experimentación en el ámbito de los límites al precio de los alquileres, estableciendo una evaluación ex post de las decisiones municipales (Loi n° 2018-1021 du 23 novembre 2018 portant évolution du logement, de l’aménagement et du numérique), que será analizada en el futuro Anuario por la profesora Chambas.
Asimismo, puso de relieve que la experimentación, al menos en la letra de la ley, no era desconocida entre nosotros antes de la era sandbox, pero las iniciativas han sido escasas, sino inexistentes. Al respecto se refirió a las pruebas piloto regulatorias que contempla la legislación desde 1989, y ahora en la ley catalana de transparencia, acceso a la información y buen gobierno (en la que se indica que “La Administración pública puede promover pruebas piloto previas a la aprobación de las nuevas medidas reguladoras para verificar su idoneidad. Estas pruebas piloto deben aplicarse mediante convenios suscritos con las entidades representativas de los sectores afectados, con los efectos y condiciones que determine el convenio”, art. 64.4 de la Ley 19/2014, de 29 de diciembre, de transparencia, acceso a la información pública y buen gobierno).
Finalmente destacó como la experimentación no es extraña ni ajena al mundo local español, aludiendo a la previsión de sandboxes en materia de movilidad urbana sostenible previsto mediante ordenanza del Ayuntamiento de Madrid (Ordenanza 10/2021, de 13 de septiembre, por la que se modifica la Ordenanza de Movilidad Sostenible de 5 de octubre de 2018, art. 233).
A continuación, en un turno abierto de intervenciones, la Sra. Isabel Buatas, Directora de Expodronica, dio cuenta del proyecto europeo de investigación U-ELCOME (U-Space European Common Deployment) para la integración de los drones pilotados remotamente en el espacio aéreo controlado, en el que participan varias administraciones españolas (también locales, como el Ayuntamiento de Zaragoza) y entidades de otros Estados, proyecto que prevé el uso de un sandbox. A partir de esta experiencia, se comentó que el principal problema que se han encontrado es la determinación de la responsabilidad civil en caso de daños producidos por la aeronave tripulada remotamente.
También se hizo referencia a la posibilidad de derogar normas temporalmente, como elemento de experimentación en el campo de la regulación (las llamadas cláusulas sunset, no utilizadas en España, pero si a nivel europeo y en otros países), y se sugirió la necesidad de contar con un marco normativo general sobre experimentación regulatoria que podría encuadrarse en una futura regulación de la ley 39/2015, de 1 de octubre, del procedimiento administrativo común, en el marco de los principios de buena regulación.
También se hizo referencia a la iniciativa de la CNMC Municipios y Competencia, puesto que en ella se ha propuesto el empleo de sandboxes en ámbito local respecto de la movilidad urbana compartida, tal y como lo recoge la Autoridad Catalana de Competencia (ACCO) en un documento de recomendaciones.
Seguidamente, tuvo lugar la última ponencia de la jornada, a cargo del Prof. Juan Luís Jiménez, del Departamento de Análisis Económico Aplicado de la Universidad de Las Palmas de Gran Canaria. En su interesante intervención, defendió la necesidad de evaluar las políticas públicas y la forma en que podría hacerse, para lo que se refirió a metodologías empíricas de evaluación. Aplicando técnicas de evaluación, tal y como ejemplificó el ponente, algunas políticas públicas podrían considerarse poco efectivas, ya que no habían conseguido su propósito.
Finalmente, el acto se cerró con la intervención de las personas organizadoras del Living Lab, en que agradecieron a ponentes y asistentes su participación en la sesión.
Creemos que las reflexiones y debates de la sesión han de ser de especial interés también para la regulación de la inteligencia artificial. Sobre todo teniendo en cuenta que se anuncia que el Gobierno de España presenta, en colaboración con la Comisión Europea, el primer piloto del sandbox de regulación de Inteligencia Artificial en la UE, que habrá que seguir con el máximo interés, y no es el único nivel de poder que en España se interesa por esta cuestión, puesto que Aragón, por ejemplo, parece seguir un camino semejante.
El video completo de la jornada puede visionarse aquí:
https://us06web.zoom.us/rec/play/X1WfLqecuqaCVJo1df_KQ8HezDo2AW9pJWs9JjMB8OtphjbsVxsi7J7VpkBLjyybTsnPlOpxR6IrSqz1.YYlsyiXtkGlwOfQO
Passcode: E1e@KHa9