Boletín de noviembre de 2025
🚀 Las últimas novedades de la comunidad de AE
¡Hola!
En este boletín, compartimos las noticias más relevantes del mundo del altruismo eficaz hispanohablante.
Anuncios
AI Risk Explorer
Se ha lanzado AI Risk Explorer (AIRE), una nueva plataforma dedicada al monitoreo de riesgos de la inteligencia artificial. El sitio recopila y sintetiza evidencia de manera sistemática para informar los esfuerzos de gobernanza de la IA. Actualmente, la plataforma incluye perfiles de riesgos como ciberataques, riesgos biológicos y pérdida de control, además de bases de datos de evaluaciones e incidentes. Puedes encontrar más información aquí.
Presentación del libro Altruismo Racional en Barcelona
El 15 de octubre, Pablo Melchor, autor de Altruismo Racional, presentó su libro en la Llibreria +Bernat en Barcelona. La conversación, guiada por Pablo Rosado, exploró cómo combinar la compasión y el pensamiento racional para maximizar el impacto positivo. El evento incluyó una ronda de preguntas y una sesión de networking. Puedes ver un video del evento aquí y registrarte para el club de lectura del libro en este formulario.
Traducciones
Este mes, se publicaron los siguientes artículos en altruismoeficaz.net:
El altruismo eficaz en la era de la IAG
William MacAskill propone una “tercera vía” para el movimiento del altruismo eficaz ante el rápido avance de la IA. En lugar de volverse obsoleto o regresar a áreas clásicas como la salud global, MacAskill sostiene que el AE debería asumir la misión de garantizar una transición exitosa a una sociedad con inteligencia artificial general. Esto implica ampliar el enfoque de este movimiento más allá de la seguridad técnica de la IA para incluir áreas desatendidas como la gobernanza de la IA, la disrupción epistémica y la concentración de poder, sin dejar de valorar el trabajo en las áreas tradicionales. El autor sugiere que este camino requiere agilidad intelectual y un enfoque en la búsqueda de la verdad para navegar los desafíos y las oportunidades de la era venidera. Lee el artículo completo aquí.
Planes A, B, C y D para el riesgo de desalineación
Ryan Greenblatt describe cuatro planes estratégicos (A, B, C y D) para gestionar los riesgos de la desalineación de la IA, cada uno correspondiente a un nivel diferente de voluntad política y de tiempo disponible. El Plan A asume una fuerte cooperación internacional y un plazo de 10 años para un trabajo de seguridad intensivo. Los demás planes operan con crecientes limitaciones: el Plan B supone el apoyo del gobierno de EE.UU. con un plazo de 1 a 3 años; el Plan C depende de que la empresa líder en IA dedique su ventaja a la seguridad; y el Plan D se prepara para un escenario con un apoyo institucional mínimo, dependiendo de un pequeño equipo interno para mitigar los peores riesgos. El marco busca ofrecer una vía realista para la mitigación de riesgos en diversos escenarios futuros posibles. Lee el artículo completo aquí.
Por qué creo que desarrollar el altruismo eficaz es importante para hacer que la IA tenga un impacto benéfico
Arden Koehler argumenta que el desarrollo de la comunidad y las ideas del altruismo eficaz es crucial para abordar los riesgos de la IA. La autora sostiene que el problema de la IA requiere personas flexibles, con herramientas intelectuales sólidas y capaces de tomar buenas decisiones en un entorno incierto y cambiante, cualidades que el AE fomenta. Además, la naturaleza moral del altruismo eficaz proporciona una base de principios para resistir incentivos económicos o de poder que podrían desviar el desarrollo de la IA del bien común, asegurando que las decisiones críticas se tomen con un razonamiento moral explícito. Lee el artículo completo aquí.
Oportunidades
Programa Internacional en Evaluación de IA
Están abiertas las postulaciones para el Programa Internacional de Evaluación de IA: Capacidades y Seguridad, un curso híbrido de 150 horas (en línea con una semana presencial en Valencia, España) que capacita a profesionales para evaluar sistemas de IA avanzados y hacerlos más seguros. El programa busca una cohorte global e interdisciplinaria de 40 participantes de campos como la informática, políticas, ciencias cognitivas y ética. La fecha límite para la postulación prioritaria es el 17 de noviembre. Postúlate aquí.
Organiser Support Programme (OSP)
El Centre for Effective Altruism (CEA) ha abierto las postulaciones para el Organiser Support Programme (OSP), un programa de mentoría de tres semanas diseñado para ayudar a organizadores de grupos de altruismo eficaz universitarios, de ciudades o nacionales a prepararse para el semestre. El programa ofrece reuniones regulares con un mentor experimentado, talleres y recursos. Las postulaciones para participantes cierran el 16 de noviembre y para mentores el 14 de noviembre. Más información aquí.
Involúcrate
Esperamos que este número de nuestro boletín haya sido de tu agrado. ¡Hasta el mes que viene!



