El huracán Idalia y la tormenta de fuego de Hawai fueron las catástrofes meteorológicas más notables en EE. UU. en 2023, pero no fueron ni mucho menos las únicas.
En 2023, 25 desastres meteorológicos o climáticos causaron al menos 1.000 millones de dólares en pérdidas y la muerte de 482 personas, según los Centros Nacionales de Información Medioambiental.
En 2024, la inteligencia artificial debería desempeñar un papel más importante a la hora de predecir esos fenómenos y salvar vidas, según predicen los expertos de la facultad de la Universidad Northeastern. «En los próximos 12 meses, vamos a ver cada vez más esfuerzos en los que los sistemas basados en datos y la inteligencia artificial se unen», dice Auroop R. Ganguly, profesor de ingeniería civil y ambiental y director del área de enfoque AI4CaS (AI para el Clima y la Sostenibilidad) dentro del Instituto de IA Experiencial de Northeastern.
Durante años, los científicos han utilizado modelos de predicción climática basados en gran medida en las reglas de la física y la química para pronosticar patrones meteorológicos, afirma Ganguly.
Recientemente, se han desarrollado nuevos modelos híbridos que también tienen en cuenta el aprendizaje automático y otras herramientas de IA generativa. Estos modelos, a su vez, han ayudado a los científicos del clima a crear sistemas aún más exactos y precisos.
Esa tendencia continuará en 2024, afirma Ganguly, a medida que los modelos de predicción sigan mejorando y la necesidad de datos climáticos precisos se haga más acuciante.
Más normas sobre IA en el futuro
Además de ayudar a predecir mejor las catástrofes meteorológicas y climáticas, las normativas gubernamentales sobre IA seguirán perfeccionándose durante el próximo año, afirma Sina Fazelpour, profesor adjunto de Filosofía e Informática en Northeastern.
Se han desarrollado nuevos modelos híbridos que también tienen en cuenta el aprendizaje automático y otras herramientas de IA generativa
«Creo que una pregunta interesante para el año que viene será: ¿Cuál será el panorama normativo y la forma de las políticas que llegarán a EE. UU.?», afirma.
Señala la reciente orden ejecutiva de la administración Biden sobre la regulación de la IA. Fazelpour espera que algunas partes del decreto desempeñen un papel más importante en los próximos 12 meses. «Por ejemplo, hay partes de la orden ejecutiva que cuentan con apoyo bipartidista, como la creación de un Instituto de Seguridad de la IA», afirma. «Ahora, por supuesto, la forma concreta de ese instituto y lo que salga de él no está nada claro».
Aunque la demanda de normas es evidente, Fazelpour afirma que queda mucho trabajo por hacer para llegar a un acuerdo sobre cuáles deben ser. «Tenemos que crear muchas herramientas de evaluación adecuadas para los sistemas de IA», afirma Fazelpour. «Algunas de estas herramientas serán tecnológicas y requerirán innovación en filosofía y en las interacciones entre humanos y ordenadores».
La orden ejecutiva del Presidente Joe Biden instaba al Congreso a aprobar rápidamente normativas en torno a la privacidad de la IA. Fazelpour no tiene tan claro cómo se desarrollarán estos esfuerzos. «Incluso cuando haya un apoyo civil estable, aún está por ver la forma concreta en que nos daremos cuenta y crearemos herramientas tecnológicas y normativas políticas», afirma.