diff --git a/.gitignore b/.gitignore
index 34e0be0e..738850f5 100644
--- a/.gitignore
+++ b/.gitignore
@@ -1,3 +1,6 @@
+# IDEs
+.idea
+
.DS_Store
node_modules
/build
@@ -23,6 +26,5 @@ deno.lock
/project.inlang/settings.json
/src/lib/generated
/src/temp
-/l10n-cage
/static/open-letter/portraits/original
\ No newline at end of file
diff --git a/CLAUDE.md b/CLAUDE.md
new file mode 100644
index 00000000..57924ff9
--- /dev/null
+++ b/CLAUDE.md
@@ -0,0 +1,365 @@
+# CLAUDE.md
+
+This file provides guidance to Claude Code (claude.ai/code) when working with code in this repository.
+
+## Overview
+
+This is the PauseAI website (pauseai.info) - a SvelteKit-based website with automatic localization (l10n) support. It's deployed on Netlify and uses LLM-powered localization to generate locale-appropriate content across multiple languages.
+
+## Essential Commands
+
+### Development
+
+```bash
+pnpm dev # Start development server at http://localhost:37572 (en-only mode by default)
+pnpm build # Build for production (runs l10n automatically based on env config)
+pnpm preview # Preview production build
+```
+
+### Code Quality
+
+```bash
+pnpm test # Run Vitest test suite
+pnpm lint # Check code with knip and eslint
+pnpm format # Auto-fix code style with prettier
+pnpm check # Type-check SvelteKit code and build scripts
+```
+
+### L10n (Localization)
+
+```bash
+pnpm l10n # Run l10n manually (mode determined by env)
+pnpm l10n --dry-run # Use cached translations only (no LLM calls)
+pnpm l10n --verbose # Show detailed debug output
+pnpm l10n --force "*.md" # Force retranslation of specific files
+```
+
+### Other
+
+```bash
+pnpm clean # Clean build artifacts and caches
+```
+
+## Architecture
+
+### SvelteKit Structure
+
+- **Adapter**: `@sveltejs/adapter-netlify` with edge functions enabled
+- **Routing**: File-based routing in `src/routes/`
+ - `+page.svelte` - Page components
+ - `+page.ts` - Page load functions
+ - `+server.ts` - API endpoints
+ - `+layout.svelte` - Layout components
+ - `+layout.ts` - Layout load functions
+- **Aliases**:
+ - `$lib` → `src/lib`
+ - `$assets` → `src/assets`
+ - `$api` → `src/routes/api`
+- **Port**: Development server runs on port 37572
+
+### Content Management
+
+**Markdown Content**: Blog posts and articles stored in `src/posts/` as `.md` files
+
+- Uses mdsvex for markdown processing with custom components
+- Frontmatter for metadata (title, author, date, description, image)
+- Custom image component for automatic optimization
+
+**Decap CMS**: Web interface at https://pauseai-cms.netlify.app/ for content editing
+
+- Creates pull requests automatically
+- Non-authorized users must fork the repository
+- Articles go through Draft → In Review → Ready workflow
+
+**Dynamic Pages**: Some pages (`/teams`, `/chat`, etc.) fetch data from Airtable API at runtime
+
+### Localization System (L10n)
+
+The l10n system is a sophisticated multi-mode translation pipeline:
+
+#### L10n Cage Architecture
+
+- **L10n Cage**: Git repository (https://github.com/PauseAI/paraglide) cloned locally as `l10n-cage/`
+- **Purpose**: Cache Adopting Git Engine - caches LLM-generated translations to avoid duplicate API calls
+- **Structure**:
+ - `l10n-cage/json/` - Aggregated short messages (de.json, nl.json, etc.)
+ - `l10n-cage/md/{locale}/` - Localized markdown pages per locale
+- **Branch Strategy**: Feature branches in website repo create matching branches in cage
+
+#### L10n Modes (automatically determined)
+
+1. **en-only mode**: Only English configured (`PARAGLIDE_LOCALES=en` or undefined in dev)
+ - No translations, maximum speed, default for local development
+2. **dry-run mode**: Multiple locales but no API key or `--dry-run` flag
+ - Uses cached translations only, no LLM calls
+3. **perform mode**: Multiple locales + API key + proper branch
+ - Generates new translations via LLM, commits to cage, pushes to remote
+
+#### L10n Configuration
+
+- **Default settings**: `project.inlang/default-settings.js` (source of truth)
+- **Runtime settings**: `project.inlang/settings.json` (generated from defaults + env)
+- **Locale selection**: `PARAGLIDE_LOCALES` env var
+ - `en` - English only (dev default)
+ - `all` - All available locales (CI default)
+ - `en,nl,de` - Specific locales
+ - `-fr,es` - All except specified
+- **API Key**: `L10N_OPENROUTER_API_KEY` (required for perform mode)
+- **Branch override**: `L10N_BRANCH` (optional, for testing different cage branches)
+
+#### Branch Safety
+
+- **Local dev**: Cannot write to main branch of l10n cage
+- **CI/CD**: Can write to main for production deployments
+- **Workaround**: Work on feature branches to create matching cage branches
+
+#### L10n Files
+
+- **Source messages**: `messages/en.json` (short UI strings)
+- **Source markdown**: `src/posts/*.md` (articles/pages)
+- **Translation script**: `scripts/l10n/run.ts` (main entry point)
+- **Key modules**:
+ - `scripts/l10n/mode.ts` - Mode determination
+ - `scripts/l10n/branch-safety.ts` - Git branch safety checks
+ - `scripts/l10n/llm-client.ts` - LLM API client with rate limiting
+ - `scripts/l10n/prompts.ts` - Translation prompts
+ - `scripts/l10n/heart.ts` - Core translation logic
+
+### Image Handling
+
+**Image Component**: `src/lib/components/Image.svelte`
+
+- Automatic optimization for multiple formats (WebP, AVIF)
+- Multiple resolutions for responsive images
+- Source directory: `src/assets/images/`
+- Path convention: Relative to `src/assets/images/`, starting with `/`
+
+**Usage in Markdown**:
+
+```markdown
+
+
+```
+
+**Usage in Svelte**:
+
+```svelte
+import Image from '$lib/components/Image.svelte'
+
+```
+
+### API Routes
+
+API endpoints in `src/routes/api/`:
+
+- `chat/+server.ts` - Claude AI chat interface
+- `calendar/+server.ts` - Luma events calendar
+- `geo/+server.ts` - Geo-location for event proximity
+- `national-groups/+server.ts` - Community groups data
+- `posts/+server.ts` - Blog posts listing
+- `teams/+server.ts` - Team members from Airtable
+- `signatories/+server.ts` - Statement signatories
+- `uk-*` - UK-specific MP lookup and email functionality
+- `write/+server.ts` - Newsletter signup
+- `verify/+server.ts` - Email verification
+
+**Airtable Integration**: `src/lib/airtable.ts`
+
+- Fetches data from Airtable API with pagination
+- Fallback data in development when API key not configured
+- Helper function: `fetchAllPages()`
+
+### Environment Variables
+
+**Development**: No `.env` required for basic development
+
+- Copy `template.env` to `.env` for:
+ - Multiple locales: `PARAGLIDE_LOCALES`
+ - L10n generation: `L10N_OPENROUTER_API_KEY`
+ - Dynamic content: Airtable keys, API keys
+- Defaults ensure site works without env setup
+
+**Isomorphic env handling**: `src/lib/env.ts`
+
+- `getEnvironment()` - Works in both Node.js and browser
+- `isDev()` - Determines if dev/test environment
+- `getDevContext()` - Formatted context for logging
+
+**Build-time**: `PARAGLIDE_LOCALES` is made available to browser via `import.meta.env`
+
+### Redirects
+
+**Server-side redirects**: `src/lib/redirects.ts`
+
+- `REDIRECTS` object maps old paths to new paths
+- 301 permanent redirects via `handleRedirects()` function
+- Called from hooks to process before page load
+
+### Build Process
+
+**Build script**: `pnpm build` runs:
+
+1. L10n generation (`tsx scripts/l10n/run`)
+2. Vite build with `--emptyOutDir=false`
+3. Post-build steps (run sequentially):
+ - `_postbuild:pagefind` - Create search index
+ - `_postbuild:exclude` - Configure edge function exclusions
+ - `_postbuild:caching` - Set up caching headers
+ - `_postbuild:l10ntamer` - L10n cleanup/validation
+
+**Build optimizations** (vite.config.ts):
+
+- Excludes unused locale directories from bundle
+- Multi-threading with esbuild minification
+- Disabled compressed size reporting for cleaner logs
+- Sourcemaps in dev, disabled in production by default
+
+### Testing
+
+**Test runner**: Vitest
+
+- Test files: `**/*.test.ts`
+- L10n system has comprehensive tests in `scripts/l10n/*.test.ts`
+- Luma client tests in `src/lib/clients/luma/index.test.ts`
+
+### Deployment
+
+**Platform**: Netlify
+
+- Continuous deployment on push
+- Status: https://app.netlify.com/sites/pauseai/deploys
+- Edge functions enabled by default
+- Build command: `pnpm run build`
+- Publish directory: `build`
+
+**PR Workflow**:
+
+- PRs trigger l10n generation on matching cage branch
+- Target PRs to `l10-preview` or similar branches for l10n preview (main is locked to en-only currently)
+- Use "Squash and merge" when merging PRs (repository convention)
+
+## Key Patterns and Conventions
+
+### Paraglide Integration
+
+**Middleware**: `src/hooks.server.ts` uses `paraglideMiddleware` for locale routing
+
+- Intercepts requests and adds locale to URL path
+- Transforms `%lang%` placeholder in HTML to actual locale
+
+**Runtime**: Compiled from `project.inlang/settings.json`
+
+- Import via: `import { locales, baseLocale } from '$lib/paraglide/runtime'`
+- Access compiled messages via auto-generated functions
+
+### Type Safety
+
+**TypeScript**: Strict mode enabled
+
+- `tsconfig.json` - SvelteKit code
+- `scripts.tsconfig.json` - Build scripts
+- Check both with `pnpm check`
+
+### Markdown Processing
+
+**mdsvex configuration** (svelte.config.js):
+
+- Layout: `src/mdsvex.svelte`
+- Plugins:
+ - `remark-unwrap-images` - Remove paragraph wrappers
+ - `remark-toc` - Generate table of contents
+ - `remark-heading-id` - Custom heading IDs
+ - `rehype-slug` - Heading slugs
+
+**Custom components**: `src/lib/components/custom/`
+
+- `a.svelte` - Custom link handling
+- `img.svelte` - Image optimization
+- `table.svelte` - Styled tables
+
+### Component Organization
+
+**Reusable components**: `src/lib/components/`
+
+- Icons in `icons/` subdirectory
+- Widget consent system in `widget-consent/`
+- Simple TOC in `simple-toc/`
+- Custom markdown renderers in `custom/`
+
+### Styling
+
+**Fonts**:
+
+- Roboto Slab (300, 500, 700)
+- Saira Condensed (700)
+
+**CSS**:
+
+- Global styles in `src/styles/styles.css`
+- Print styles in `src/styles/print.css`
+- Theme system in `src/lib/theme.ts`
+- CSS custom properties for theming
+
+## Development Notes
+
+### Windows Development
+
+Enable Developer Mode for symlink support:
+
+1. Settings → Privacy & security → For developers
+2. Toggle Developer Mode to On
+
+### Node.js Version
+
+Use version specified in `.nvmrc`. Run `nvm use` to enable for current shell session.
+
+### Working with L10n
+
+**Day-to-day content changes**: No need to run l10n locally - CI handles it automatically
+
+1. Edit English content (CMS or files)
+2. Create PR (triggers l10n on matching cage branch)
+3. Preview l10n results in staging
+
+**L10n system development**:
+
+1. Work on feature branch
+2. Set `L10N_OPENROUTER_API_KEY` in `.env`
+3. Test with `--dry-run --verbose` first
+4. Use `--force "pattern"` for selective retranslation
+
+**Reusing l10n between branches**: Merge commits between cage branches
+
+```bash
+cd l10n-cage
+git checkout my-current-branch
+git merge other-feature-branch
+cd ..
+```
+
+### Common Patterns
+
+**Dynamic imports**: Used for code splitting (e.g., `/sayno` route loads `SelfieUX.svelte` dynamically)
+
+**Locale detection**: Use `deLocalizeHref()` from `$lib/paraglide/runtime` to strip locale prefix from paths
+
+**Page metadata**: PostMeta component handles SEO metadata per page
+
+**Link handling**: Use `Link.svelte` component for external links (adds icon)
+
+## Important Files
+
+- `svelte.config.js` - SvelteKit configuration
+- `vite.config.ts` - Vite build configuration
+- `project.inlang/default-settings.js` - L10n source of truth
+- `src/lib/l10n.ts` - L10n paths and utilities
+- `scripts/l10n/run.ts` - L10n main entry point
+- `src/hooks.server.ts` - Server-side middleware
+- `src/routes/+layout.svelte` - Root layout
+- `netlify.toml` - Netlify deployment config
+
+## Additional Documentation
+
+- `README.md` - Getting started, quick reference
+- `L10N.md` - Comprehensive l10n system documentation
+- `SELFIE_SETUP.md` - Selfie campaign setup
diff --git a/l10n-cage/json/es.json b/l10n-cage/json/es.json
new file mode 100644
index 00000000..270dd3e5
--- /dev/null
+++ b/l10n-cage/json/es.json
@@ -0,0 +1,109 @@
+{
+ "$schema": "https://inlang.com/schema/inlang-message-format",
+ "header__instructions": "Todas las traducciones con el prefijo 'header_' deben ser lo más breves posible para adaptarse al diseño. Intenta mantenerlas en una sola palabra mientras sigan siendo útiles como enlaces a las páginas.",
+ "header_action__instructions": "Alemán: Handeln",
+ "header_action": "Actúa",
+ "header_donate": "Donar",
+ "header_events__instructions": "En algunos idiomas, 'calendario' o 'fechas' podrían ser mejores opciones para cumplir con el objetivo de una traducción breve. (Alemán: Termine)",
+ "header_events": "Eventos",
+ "header_faq": "Preguntas frecuentes",
+ "header_join__instructions": "En algunos idiomas, 'unirse' podría ser más apropiado si la traducción no consta de dos palabras.",
+ "header_join": "Únete",
+ "header_learn": "Aprender",
+ "header_proposal": "Propuesta",
+ "home_action_c2a": "Toma acción",
+ "home_action_content": "Demasiadas personas desconocen los riesgos potenciales de la IA. Informa a otros y ayuda a detener esta carrera hacia el abismo.",
+ "home_action_title": "Tú puedes ayudar",
+ "home_hero__instructions": "Esto se dirige al lector, tradúcelo de manera informal.",
+ "home_hero": "No permitas!!! que las empresas de IA jueguen con nuestro futuro",
+ "home_proposal_c2a": "Lee la propuesta",
+ "home_proposal_content__instructions": "'Detener' no se dirige al lector.",
+ "home_proposal_content": "Detener el desarrollo de los sistemas de IA más poderosos hasta que sepamos cómo hacerlos seguros. Esto debe suceder a nivel internacional y debe suceder pronto.",
+ "home_proposal_title": "Necesitamos una pausa",
+ "home_quotes_all": "Ver todas las citas",
+ "home_quotes_bengio_text": "La IA descontrolada puede ser peligrosa para toda la humanidad. Prohibir los sistemas de IA poderosos (digamos más allá de las capacidades de GPT-4) que se les da autonomía y agencia sería un buen comienzo.",
+ "home_quotes_bengio_title": "Ganador del premio Turing de IA",
+ "home_quotes_cais_text": "Mitigar el riesgo de extinción de la IA debe ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear.",
+ "home_quotes_cais_author": "Declaración sobre el riesgo de IA",
+ "home_quotes_cais_title": "Firmado por cientos de expertos, incluyendo los principales laboratorios y científicos de IA",
+ "home_quotes_hawking_text": "El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana.",
+ "home_quotes_hawking_title": "Físico teórico y cosmólogo",
+ "home_quotes_hinton_text": "Si tomas en serio el riesgo existencial, como lo hago yo ahora, podría ser muy sensato dejar de desarrollar estas cosas.",
+ "home_quotes_hinton_title": "Ganador del premio Nobel y 'padre de la IA'",
+ "home_quotes_russell_text": "Si seguimos [nuestro enfoque actual], eventualmente perderemos el control sobre las máquinas",
+ "home_quotes_russell_title": "Autor del libro de texto de IA",
+ "home_quotes_turing_text": "... debemos esperar que las máquinas tomen el control.",
+ "home_quotes_turing_title": "Inventor de la computadora moderna",
+ "home_risks_c2a": "Conoce los riesgos",
+ "home_risks_content": "La IA puede tener beneficios increíbles, pero también podría erosionar nuestra democracia, desestabilizar nuestra economía y podría ser utilizada para crear armas cibernéticas poderosas.",
+ "home_risks_title": "Corremos el riesgo de perder el control",
+ "home_stats_alignment": "de científicos de IA creen que el problema de alineación es real e importante",
+ "home_stats_citizens": "de ciudadanos quieren que la IA sea frenada por nuestros gobiernos",
+ "home_urgency_c2a": "¿Cuánto tiempo tenemos?",
+ "home_urgency_content": "En 2020, los expertos pensaban que teníamos más de 35 años hasta la AGI. Los recientes avances muestran que podríamos estar casi allí. La superinteligencia podría estar a una innovación de distancia, así que debemos proceder con cautela.",
+ "home_urgency_title": "Necesitamos actuar ahora",
+ "home_xrisk_c2a": "Cómo y por qué la IA podría ser una amenaza existencial",
+ "home_xrisk_content": "Muchos laboratorios y expertos de IA están de acuerdo: la IA podría acabar con la humanidad.",
+ "home_xrisk_title": "Corremos el riesgo de extinción humana",
+ "simpletoc_heading": "Índice",
+ "footer_join": "Únete a PauseAI >",
+ "footer_info": "Información",
+ "footer_info_faq": "Preguntas frecuentes",
+ "footer_info_proposal": "Propuesta",
+ "footer_info_learn": "Aprender",
+ "footer_info_press": "Prensa / Medios",
+ "footer_info_people": "Equipo",
+ "footer_info_teams": "Equipos",
+ "footer_info_partnerships": "Asociaciones",
+ "footer_info_privacy": "Política de privacidad",
+ "footer_info_legal": "Información legal",
+ "footer_info_legal_foundation": "Stichting PauseAI",
+ "footer_info_legal_kvk": "(kvk 92951031)",
+ "footer_risks": "Riesgos",
+ "footer_risks_overview": "Resumen de riesgos",
+ "footer_risks_outcomes": "Resultados de la IA",
+ "footer_risks_xrisk": "Riesgo existencial",
+ "footer_risks_psychology": "Psicología del riesgo existencial",
+ "footer_risks_takeover": "Toma de control de la IA",
+ "footer_risks_cybersecurity": "Seguridad cibernética",
+ "footer_risks_capabilities": "Capacidades peligrosas",
+ "footer_risks_sota": "Estado del arte",
+ "footer_risks_urgency": "Urgencia",
+ "footer_action": "Actúa",
+ "footer_action_join": "Únete a PauseAI",
+ "footer_action_help": "Cómo puedes ayudar",
+ "footer_action_communities": "Comunidades locales",
+ "footer_action_donate": "Donar",
+ "footer_action_merchandise": "Merchandising",
+ "footer_action_events": "Eventos",
+ "footer_action_vacancies": "Vacantes",
+ "footer_action_email": "Constructor de correos electrónicos",
+ "footer_action_lobby": "Consejos de lobby",
+ "footer_other": "Otros",
+ "footer_other_pages": "Todas las páginas",
+ "footer_other_rss": "RSS",
+ "footer_other_license": "Licencia: CC-BY 4.0",
+ "footer_other_feedback": "Enviar comentarios",
+ "footer_other_edit": "Editar contenido original en inglés",
+ "footer_other_l10n": "Sugerir mejora de traducción",
+ "newsletter_heading": "Suscríbete a nuestro boletín",
+ "newsletter_description": "Mantente actualizado sobre nuestros esfuerzos para abogar por la seguridad de la IA.",
+ "newsletter_disclaimer": "Nuestro boletín es completamente gratuito. No se requiere suscripción paga. Puedes cerrar Substack una vez que te hayas registrado.",
+ "newsletter_email_placeholder": "Tu correo electrónico",
+ "newsletter_button": "Suscribirse",
+ "newsletter_success": "Gracias por suscribirte",
+ "newsletter_error_default": "No se pudo suscribir. Por favor, inténtalo de nuevo.",
+ "newsletter_error_network": "Error de red. Por favor, inténtalo más tarde.",
+ "newsletter_loading": "Cargando...",
+ "uk_email_mp_title": "Envía un correo electrónico a tu diputado",
+ "uk_email_mp_description": "Contacta con tu diputado sobre la seguridad de la IA",
+ "uk_email_mp_uk_only_notice": "Esta herramienta es solo para el Reino Unido. Para otros países, utiliza el [constructor de correos electrónicos global](/email-builder).",
+ "learn_risks": "[Riesgos](/risks). Un resumen de los riesgos de la IA.",
+ "learn_xrisk": "[Riesgo existencial](/xrisk). Por qué la IA es un riesgo existencial.",
+ "learn_ai_takeover": "[Toma de control](/ai-takeover). Cómo la IA podría tomar el control del mundo.",
+ "learn_quotes": "[Citas](/quotes). Citas sobre los riesgos y la gobernanza de la IA.",
+ "learn_feasibility": "[Viabilidad de una pausa](/feasibility). La viabilidad de una pausa en el desarrollo de la IA.",
+ "learn_building_the_pause_button": "[Construyendo el botón de pausa](/building-the-pause-button). Lo que se necesita para pausar la IA.",
+ "learn_faq": "[Preguntas frecuentes](/faq). Preguntas comunes sobre la seguridad de la IA y PauseAI.",
+ "learn_action": "[Acción](/action). Lo que puedes hacer para ayudar (con enlaces a muchas guías relacionadas con la acción)"
+}
diff --git a/l10n-cage/md/es/2023-august-nl.md b/l10n-cage/md/es/2023-august-nl.md
new file mode 100644
index 00000000..674010b5
--- /dev/null
+++ b/l10n-cage/md/es/2023-august-nl.md
@@ -0,0 +1,91 @@
+---
+title: Protesta de PauseAI en La Haya, Países Bajos - 11 de agosto
+description: Estamos organizando una protesta para exigir una pausa en el desarrollo de inteligencia artificial peligrosa.
+---
+
+
+
+
+
+
+
+
+
+
+
+- Protesta de PauseAI
+- Dónde: Wijnhaven, La Haya
+- Cuándo: 11 de agosto de 2023, 16:00 - 17:00
+
+## Por qué protestamos {#why-we-protest}
+
+La inteligencia artificial (IA) se está desarrollando a un ritmo vertiginoso, mucho más rápido de lo que cualquier científico había predicho.
+Se están invirtiendo miles de millones en capacidades de IA, y los resultados son asombrosos.
+Los nuevos modelos están [superando a los humanos](/sota) en muchos dominios.
+A medida que aumentan las capacidades, también aumentan los [riesgos](/risks).
+Los científicos incluso [advierten](https://www.safe.ai/statement-on-ai-risk) que la IA podría [acabar con la humanidad](/xrisk).
+
+Nuestros políticos no están tomando este tema con la seriedad que merece.
+Necesitamos que nuestros líderes escuchen estas advertencias.
+Necesitamos que tomen medidas y [implementen una pausa](/proposal) para detener esta carrera suicida.
+
+Queremos que el gobierno holandés:
+
+- Invite a expertos en seguridad de la IA a informar al parlamento sobre estos riesgos
+- Programe un debate sobre los riesgos existenciales de la IA
+- Priorice las preparaciones para la cumbre de seguridad de la IA más adelante este año y asuma un papel de liderazgo en la elaboración de políticas efectivas
+- Colabore internacionalmente para implementar medidas de seguridad suficientes a escala global
+
+## Agenda {#agenda}
+
+- 12:00 - 16:00 Preparar carteles en el taller (solo para los verdaderos entusiastas, ¡contáctanos si quieres estar allí!)
+- 16:00 Discursos + protesta + reparto de folletos
+- 17:00 Bebidas en un pub cercano
+
+## Contacto {#contact}
+
+- Joep Meindertsma ([twitter](https://twitter.com/joepmeindertsma), [correo electrónico](mailto:joep@ontola.io))
+
+## Comunicado de prensa (EN): PauseAI pide al gobierno holandés que prevenga desastres relacionados con la IA que amenazan a la humanidad {#press-release-en-pauseai-calls-on-dutch-government-to-prevent-human-threatening-ai-related-disasters}
+
+El viernes 11 de agosto, a las 16:00, un grupo de personas preocupadas se reunirá en el Ministerio del Interior bajo el nombre de [PauseAI](http://pauseai.info) para abordar los desarrollos en el campo de la IA (generativa). Están instando al gobierno a tomar medidas para pausar el desarrollo de inteligencia artificial poderosa y potencialmente peligrosa.
+
+Hasta ahora, el gobierno holandés no ha tomado ninguna medida para abordar la amenaza existencial planteada por la IA. No ha habido respuesta a las advertencias y declaraciones de entidades como la [ONU](https://www.linkedin.com/feed/update/urn:li:activity:7075767810336923648), el Primer Ministro del [Reino Unido](https://www.theguardian.com/technology/2023/may/25/no-10-acknowledges-existential-risk-ai-first-time-rishi-sunak?) (donde se planea una cumbre sobre este tema para el otoño), y [expertos en IA](https://nos.nl/op3/artikel/2012979-wetenschappers-waarschuwen-voor-kunstmatige-intelligentie), incluso después de que una [moción](https://www.parlementairemonitor.nl/9353000/1/j9vvij5epmj1ey0/vm1rshv2ulz5) en la Cámara de Representantes instara a tal acción a principios de este año.
+
+"[Los científicos](https://www.safe.ai/statement-on-ai-risk) están sonando la alarma: la IA podría significar el fin de la humanidad. Los expertos incluso estiman una [probabilidad del 30%](https://forum.effectivealtruism.org/posts/8CM9vZ2nnQsWJNsHx/existential-risk-from-ai-survey-results) de que esto suceda. Las empresas de IA están avanzando a toda velocidad, arriesgando todas nuestras vidas, mientras que la regulación se queda atrás." - Joep Meindertsma, director ejecutivo de la empresa de software Ontola y fundador de PauseAI.
+
+Las preocupaciones sobre los riesgos asociados con la IA están creciendo rápidamente en todo el mundo. Esta semana, la firma de investigación Axios publicó los resultados de una encuesta de opinión pública realizada entre residentes de los Estados Unidos, que reveló que el 86% de los encuestados están preocupados por los riesgos catastróficos de la IA.
+
+"Los EE. UU. tienen audiencias en el Senado donde los expertos en IA discuten cómo la IA podría provocar el fin de la humanidad. ¿Por qué se ignora este tema en la política holandesa? Especialmente considerando que los Países Bajos juegan un papel clave en la cadena de suministro de chips, gracias a ASML. ¡Esto es por qué también puede desempeñar un papel clave en la gobernanza de la computación de IA! Todas las vidas están en juego." - Joep Meindertsma
+
+PauseAI pide al gobierno holandés que:
+
+- Invite a expertos en seguridad de la IA a informar al parlamento sobre estos riesgos
+- Programe un debate parlamentario sobre los riesgos existenciales de la inteligencia artificial avanzada
+- Priorice las preparaciones para la cumbre de IA propuesta en el Reino Unido más adelante este año y asuma un papel de liderazgo en la elaboración de políticas efectivas. Los activistas tienen [propuestas concretas](https://pauseai.info/summit) y [ideas de políticas](https://pauseai.info/proposal) para la próxima cumbre de IA.
+- Colabore internacionalmente para implementar un conjunto adecuado de medidas a escala global, incluida una pausa en la IA.
+
+Para obtener más información, visite [PauseAI.info](http://pauseai.info). Contacto: Joep Meindertsma ([twitter](https://twitter.com/joepmeindertsma), [correo electrónico](mailto:joep@ontola.io)) y Ruben Dieleman ([correo electrónico](mailto:ruben@existentialriskobservatory.org))
+
+## Comunicado de prensa (NL): PauseAI roept overheid op tot het voorkomen van mensbedreigende, AI-gerelateerde rampen {#press-release-nl-pauseai-roept-overheid-op-tot-het-voorkomen-van-mensbedreigende-ai-gerelateerde-rampen}
+
+Op vrijdag 11 augustus om 16.00 komt een groep mensen samen die zich zorgen maken over de ontwikkelingen op het gebied van (generatieve) AI bij het Ministerie van Binnenlandse Zaken onder de naam [PauseAI](http://pauseai.info). Zij roepen de regering op zich in te spannen voor een pauze van de ontwikkeling van krachtige en mogelijk gevaarlijke kunstmatige intelligentie.
+
+Tot nu toe heeft de Nederlandse regering echter geen actie ondernomen tegen de existentiële bedreiging van AI . Er is nog niet [gereageerd](https://www.linkedin.com/feed/update/urn:li:activity:7075767810336923648) op waarschuwingen en uitspraken van onder meer de [VN](https://www.linkedin.com/feed/update/urn:li:activity:7075088560508284928), de premier van het [Verenigd Koninkrijk](https://www.theguardian.com/technology/2023/may/25/no-10-acknowledges-existential-risk-ai-first-time-rishi-sunak?) (waar in het najaar een top wordt georganiseerd over dit onderwerp) en [experts op het gebied van AI](https://nos.nl/op3/artikel/2012979-wetenschappers-waarschuwen-voor-kunstmatige-intelligentie). Ook niet nadat eerder dit jaar een [motie](https://www.parlementairemonitor.nl/9353000/1/j9vvij5epmj1ey0/vm1rshv2ulz5) in de Tweede Kamer daartoe aanspoorde.
+
+"[Wetenschappers](https://www.safe.ai/statement-on-ai-risk) trekken aan de bel: AI kan het einde betekenen van de mensheid. Experts geven dit gemiddeld zelfs [30% kans](https://forum.effectivealtruism.org/posts/8CM9vZ2nnQsWJNsHx/existential-risk-from-ai-survey-results). AI bedrijven racen vooruit en gokken met al onze levens, terwijl regulering hopeloos achter blijft." - Joep Meindertsma, directeur van softwarebedrijf Ontola en oprichter van PauseAI.
+
+De zorgen over de risico's die kleven aan AI zijn mondiaal snel aan het groeien. Deze week nog publiceerde onderzoeksbureau Axios de resultaten van een opiniepeiling onder inwoners van de Verenigde Staten, waaruit [bleek](https://www.axios.com/2023/08/09/ai-voters-trust-government-regulation) dat 86% zich zorgen maakt over catastrofale risico's van AI.
+
+"De VS heeft senaatshoorzittingen waarbij AI experts vertellen over hoe AI het einde kan vormen van de mensheid. Waarom wordt dit onderwerp genegeerd in de Nederlandse politiek? En dat terwijl Nederland een sleutelrol speelt in de chip supply chain, dankzij ASML. Hierom kan het óók een sleutelrol spelen in AI compute governance. Alle levens staan op het spel!" - Joep Meindertsma
+
+PauseAI wil dat de Nederlandse regering:
+
+- AI safety-experts uitnodigt om het parlement te informeren over deze risico's
+- Een parlementair debat inroostert over de existentiële risico's van geavanceerde kunstmatige intelligentie
+- Voorbereidingen op de voorgestelde AI-top in het Verenigd Koninkrijk van later dit jaar voorrang geeft en een leidende rol neemt inzake effectief beleid. De actievoerders hebben concrete [voorstellen](https://pauseai.info/summit) en [beleidsideeën](https://pauseai.info/proposal) voor de te houden AI-top.
+- Internationaal samenwerkt om een toereikende set maatregelen op mondiale schaal toegepast te krijgen, waaronder een zogenoemde AI-pauze.
+
+Voor meer info, bezoek [PauseAI.info](http://pauseai.info). Contact: Joep Meindertsma ([twitter](https://twitter.com/joepmeindertsma), [email](mailto:joep@ontola.io)) & Ruben Dieleman ([email](mailto:ruben@existentialriskobservatory.org))
diff --git a/l10n-cage/md/es/2023-july-london-13th.md b/l10n-cage/md/es/2023-july-london-13th.md
new file mode 100644
index 00000000..72a3e944
--- /dev/null
+++ b/l10n-cage/md/es/2023-july-london-13th.md
@@ -0,0 +1,27 @@
+---
+title: Protesta de PauseAI en el FCDO, Londres, 13 de julio
+description: Protesta de PauseAI, instando al Consejo de Seguridad de las Naciones Unidas a implementar una pausa global en las ejecuciones de entrenamiento de IA más grandes.
+---
+
+- Protesta de PauseAI, instando al Consejo de Seguridad de las Naciones Unidas a implementar una pausa global en las ejecuciones de entrenamiento de IA más grandes.
+- Lugar: fuera de la Oficina de Relaciones Exteriores, Commonwealth y Desarrollo (FCDO), King Charles Street, Westminster, Londres, SW1A 2AH
+- Fecha y hora: 13 de julio, 16:30 - 17:30
+- [Inscríbete](https://docs.google.com/forms/d/e/1FAIpQLSfW_E_Q92EEdv6AwHdsEbyR66tOUByo-wFrc3SU4zIL6HTjxw/viewform?usp%253Dsf_link)
+
+## Contacto {#contact}
+
+- Alistair Steward ([twitter](https://twitter.com/alistair___s))
+
+## Comunicado de prensa: PauseAI protesta en la Oficina de Relaciones Exteriores antes de la reunión del Consejo de Seguridad de la ONU sobre el riesgo de la IA {#press-release-pauseai-protests-foreign-office-ahead-of-un-security-council-meeting-on-ai-risk}
+
+El jueves 13 de julio, voluntarios del movimiento PauseAI se reunirán en la Oficina de Relaciones Exteriores, Londres, para instar al Consejo de Seguridad de la ONU a implementar una pausa en las ejecuciones de entrenamiento de los sistemas de IA más poderosos. En una [conferencia de prensa](https://youtu.be/USap-tFrTDc?t=3235) celebrada la semana pasada, la embajadora del Reino Unido y presidenta del Consejo de Seguridad, Barbara Woodward, declaró: "La inteligencia artificial no es un actor en sí misma", lo que demuestra una falta de comprensión técnica que es común entre los funcionarios gubernamentales y que lleva a subestimar gravemente los riesgos de los futuros sistemas de IA. Muchos expertos en IA creen que la IA superhumana podría escapar del control humano, con consecuencias catastróficas, incluyendo la extinción humana. El Secretario General de la ONU, António Guterres, [reconoció recientemente esta amenaza](https://press.un.org/en/2023/sgsm21832.doc.htm):
+
+> "Las alarmas sobre la última forma de inteligencia artificial --- la IA generativa --- son ensordecedoras, y son más fuertes entre los desarrolladores que la diseñaron. Estos científicos y expertos han llamado a la acción al mundo, declarando que la IA es una amenaza existencial para la humanidad al mismo nivel que el riesgo de la guerra nuclear".
+
+El Consejo de Seguridad de la ONU celebrará una reunión sin precedentes para discutir estos riesgos de la IA el 18 de julio. Presidida por el Secretario de Relaciones Exteriores del Reino Unido, James Cleverly, la reunión del Consejo de Seguridad brindará la oportunidad de escuchar las opiniones de expertos sobre la IA y comenzar una discusión entre los 15 miembros del Consejo sobre sus implicaciones. Una [carta abierta](https://futureoflife.org/open-letter/pause-giant-ai-experiments/) (publicada en abril) que pide a las empresas de IA que pausen sus ejecuciones de entrenamiento ha sido firmada por más de 33.000 personas, incluyendo a muchos investigadores de IA y líderes tecnológicos. Ninguna empresa de IA ha cumplido aún.
+
+> "No podemos esperar que las empresas de IA detengan voluntariamente el entrenamiento de nuevos modelos de IA - la presión competitiva es demasiado fuerte. Los gobiernos nacionales enfrentan un problema similar, ya que las naciones también compiten. Necesitamos medidas globales. El Consejo de Seguridad de la ONU es uno de los pocos órganos donde se podría formar un tratado internacional de este tipo. Estamos instando a nuestros líderes a aprovechar esta oportunidad única para actuar y pausar las ejecuciones de entrenamiento de IA". - Miembros de PauseAI
+
+El Reino Unido está liderando actualmente la regulación de la seguridad de la IA a nivel internacional, ya que el gobierno [anunció el 7 de junio](https://www.gov.uk/government/news/uk-to-host-first-global-summit-on-artificial-intelligence) que organizará la primera Cumbre de Seguridad de la IA este otoño. Sin embargo, los manifestantes se preocupan de que habrá demasiada poca acción, demasiado tarde:
+
+> "Predecir cuán rápido avanzará la IA es extremadamente difícil. Debemos errar en el lado de la precaución y prepararnos para un escenario en el que obtenemos niveles peligrosos de inteligencia en meses - no años. La reunión del Consejo de Seguridad de la ONU es el primer momento en que se podría decidir una pausa global". - Miembros de PauseAI
diff --git a/l10n-cage/md/es/2023-july-london-18th.md b/l10n-cage/md/es/2023-july-london-18th.md
new file mode 100644
index 00000000..8b2e7aaf
--- /dev/null
+++ b/l10n-cage/md/es/2023-july-london-18th.md
@@ -0,0 +1,37 @@
+---
+title: Protesta de PauseAI en el FCDO, Londres, 18 de julio
+---
+
+
+
+
+
+
+
+
+
+- Protesta de PauseAI, instando al Consejo de Seguridad de las Naciones Unidas a implementar una pausa global en el desarrollo de sistemas de inteligencia artificial más avanzados.
+- Dónde: fuera de la Oficina de Relaciones Exteriores, Commonwealth y Desarrollo (FCDO), King Charles Street, Westminster, Londres, SW1A 2AH
+- Cuándo: 18 de julio, 4:30 - 5:30 pm
+- [Inscríbete](https://docs.google.com/forms/d/e/1FAIpQLSfLoAUfPEhp3bZyUbDnc8HigL_rYC7ykUmmPZvVWas-m2y5bQ/viewform?usp%253Dsf_link)
+- [Evento de Facebook](https://fb.me/e/1bawf1ZH1)
+
+## Contacto {#contact}
+
+- Alistair Steward ([twitter](https://twitter.com/alistair___s))
+
+## Comunicado de prensa: PauseAI protesta en la Oficina de Relaciones Exteriores antes de la reunión del Consejo de Seguridad de la ONU sobre el riesgo de la IA {#press-release-pauseai-protests-foreign-office-ahead-of-un-security-council-meeting-on-ai-risk}
+
+El martes 18 de julio, voluntarios del movimiento PauseAI se reunirán en la Oficina de Relaciones Exteriores, Londres, para instar al Consejo de Seguridad de la ONU a implementar una pausa en el desarrollo de sistemas de inteligencia artificial más avanzados. En una [conferencia de prensa](https://youtu.be/USap-tFrTDc?t=3235) la semana pasada, la embajadora del Reino Unido y presidenta del Consejo de Seguridad, Barbara Woodward, declaró: "La inteligencia artificial no es en sí misma un actor", demostrando una falta de comprensión técnica que es común entre los funcionarios gubernamentales, lo que hace que los riesgos de los sistemas de IA sean subestimados. Muchos expertos en IA creen que la IA superinteligente podría escapar del control humano, con consecuencias catastróficas, incluyendo la extinción humana. El Secretario General de la ONU, António Guterres, [reconoció recientemente esta amenaza](https://press.un.org/en/2023/sgsm21832.doc.htm):
+
+> "Las alarmas sobre la última forma de inteligencia artificial --- IA generativa --- son ensordecedoras, y son más fuertes por parte de los desarrolladores que la diseñaron. Estos científicos y expertos han llamado al mundo a actuar, declarando que la IA es una amenaza existencial para la humanidad al mismo nivel que el riesgo de la guerra nuclear".
+
+El Consejo de Seguridad de las Naciones Unidas tendrá una reunión sin precedentes para discutir estos riesgos de la IA el 18 de julio. Presidida por el Secretario de Relaciones Exteriores del Reino Unido, James Cleverly, la reunión del Consejo de Seguridad brindará la oportunidad de escuchar las opiniones de expertos sobre la IA y comenzar una discusión entre los 15 miembros del Consejo sobre sus implicaciones. Una [carta abierta](https://futureoflife.org/open-letter/pause-giant-ai-experiments/) (publicada en abril) que pide a las empresas de IA que pausen el desarrollo de sistemas de IA más avanzados ha sido firmada por más de 33.000 personas, incluyendo muchos investigadores de IA y líderes tecnológicos. Ninguna empresa de IA ha cumplido aún.
+
+> "No podemos esperar que las empresas de IA detengan voluntariamente el desarrollo de sistemas de IA más avanzados - hay demasiada presión competitiva. Los gobiernos nacionales tienen un problema similar, ya que las naciones también compiten. Necesitamos medidas globales. El Consejo de Seguridad de la ONU es uno de los pocos órganos donde se podría formar un acuerdo internacional para abordar este desafío. Estamos instando a nuestros líderes a aprovechar esta oportunidad única para actuar y pausar el desarrollo de sistemas de IA más avanzados". - Miembros de PauseAI
+
+El Reino Unido está actualmente liderando a nivel internacional la regulación de la seguridad de la IA, ya que el gobierno [anunció el 7 de junio](https://www.gov.uk/government/news/uk-to-host-first-global-summit-on-artificial-intelligence) que organizará la primera Cumbre de Seguridad de la IA este otoño. Sin embargo, los manifestantes se preocupan de que habrá demasiada poca acción, demasiado tarde:
+
+> "Predecir cuán rápido avanzará la IA es increíblemente difícil. Necesitamos errar en el lado de la precaución y prepararnos para un escenario en el que obtenemos niveles peligrosos de inteligencia en meses - no años. La reunión del Consejo de Seguridad de la ONU es el primer momento en que se podría decidir una pausa global". - Miembros de PauseAI
diff --git a/l10n-cage/md/es/2023-july-nyc.md b/l10n-cage/md/es/2023-july-nyc.md
new file mode 100644
index 00000000..82161db4
--- /dev/null
+++ b/l10n-cage/md/es/2023-july-nyc.md
@@ -0,0 +1,11 @@
+---
+title: (Cancelada) Protesta de PauseAI en la ONU, Nueva York, 18 de julio
+description: Protesta de PauseAI para instar al Consejo de Seguridad de las Naciones Unidas a establecer una moratoria global en los entrenamientos de inteligencia artificial a gran escala.
+---
+
+
+
+- Protesta de PauseAI para instar al Consejo de Seguridad de las Naciones Unidas a establecer una moratoria global en los entrenamientos de inteligencia artificial a gran escala.
+- Lugar: Sede de la ONU, Nueva York
+- Fecha y hora: 18 de julio, 9:30 - 10:30 am
+- CANCELADA
diff --git a/l10n-cage/md/es/2023-june-london-office-for-ai.md b/l10n-cage/md/es/2023-june-london-office-for-ai.md
new file mode 100644
index 00000000..a3ee09d4
--- /dev/null
+++ b/l10n-cage/md/es/2023-june-london-office-for-ai.md
@@ -0,0 +1,49 @@
+---
+title: Protesta de PauseAI en la Oficina de IA - 29 de junio
+---
+
+
+
+- Protesta de PauseAI, instando a Rishi Sunak a implementar una pausa en el desarrollo de IA.
+- Dónde: Oficina de IA, Departamento de Ciencia, Innovación y Tecnología, 100 Parliament Street, Westminster, Londres, SW1A 2BQ
+- Cuándo: 29 de junio, 16:00 - 18:00
+- [Regístrate aquí](https://forms.gle/t1FvzqaEBmZuBuXS7)
+
+## Comunicado de prensa {#press-release}
+
+El jueves 29 de junio, voluntarios del movimiento [PauseAI](http://pauseai.info) se reunirán en la Oficina de IA, Plaza del Parlamento, Londres, para instar al gobierno del Reino Unido a tomar la iniciativa en la pausa del desarrollo de sistemas de IA más poderosos y peligrosos.
+
+Un gran número de expertos en IA [firmaron una declaración](https://www.safe.ai/statement-on-ai-risk) a principios de este mes que afirma:
+
+> "Mitigar el riesgo de extinción por IA debe ser una prioridad global, al igual que otros riesgos a escala societal, como pandemias y guerras nucleares".
+
+Esta declaración ha sido firmada por prácticamente todos los laboratorios de IA (OpenAI, Google DeepMind, Anthropic) y cientos de científicos de IA, incluyendo a Geoffrey Hinton, considerado el "Padre de la IA".
+
+Los investigadores de seguridad de IA no han llegado a un consenso sobre la magnitud del riesgo de extinción humana.
+Los resultados de la ["Encuesta sobre riesgo existencial de IA"](https://forum.effectivealtruism.org/posts/8CM9vZ2nnQsWJNsHx/existential-risk-from-ai-survey-results) muestran que las estimaciones varían desde el 2% hasta el 98%, con un promedio del 30%.
+
+El Reino Unido está tomando actualmente la iniciativa internacional en regulaciones de seguridad de IA, ya que el gobierno [anunció el 7 de junio](https://www.gov.uk/government/news/uk-to-host-first-global-summit-on-artificial-intelligence) que organizará la primera Cumbre de Seguridad de IA este otoño.
+
+La semana pasada, Rishi Sunak presentó la Fuerza de Tarea de Seguridad de IA, con Ian Hogarth como su director.
+Esta fuerza de tarea cuenta con una financiación inicial de £100 millones del gobierno.
+
+Sin embargo, [Sunak tuiteó](https://twitter.com/RishiSunak/status/1670355987457294337) que el objetivo de la Fuerza de Tarea de Seguridad de IA es también "Acelerar drásticamente la capacidad de IA del Reino Unido".
+Esto contrasta con lo que el recién nombrado director de la Fuerza de Tarea de Seguridad de IA, Ian Hogarth, escribió en mayo, en su artículo en el Financial Times "Debemos frenar la carrera hacia una IA similar a Dios".
+
+Los manifestantes están instando a Rishi Sunak a tomar la iniciativa en la seguridad de IA global y a pausar el desarrollo de sistemas de IA más peligrosos en el Reino Unido.
+
+> "Acelerar ahora es una estrategia peligrosa, y el mensaje equivocado para las naciones en la cumbre de seguridad de IA. Rishi Sunak debería liderar con el ejemplo y implementar la Pausa" - Manifestantes de PauseAI
+
+> "El Reino Unido está organizando una cumbre de seguridad de IA a finales de este año, pero puede ser demasiado tarde. Necesitamos frenar ahora mismo" - Manifestantes de PauseAI
+
+> "El Reino Unido está en una posición ideal para desarrollar los requisitos de seguridad concretos que sentarían un precedente para la cumbre de seguridad de IA más adelante este año. No hay otro país que tenga esta concentración de expertos en seguridad de IA" - Manifestantes de PauseAI
+
+> "Implementar una pausa nacional en el desarrollo de IA sería un paso audaz, pero nos daría el tiempo que necesitamos para hacerlo bien, y sentaría un precedente para que otros países sigan. Esto es esencial para que la cumbre de seguridad de IA sea un éxito" - Manifestantes de PauseAI
+
+> "Las empresas de IA están poniendo todo en riesgo; ya estamos viendo el daño, y empeorará mucho más. El desarrollo de la tecnología no es inevitable, y la pausa debería considerarse una opción factible. No podemos ceder el futuro a unos pocos directivos que reconocen que están dispuestos a arriesgar la humanidad por sus sueños. Todos merecemos tener voz en nuestro futuro, y una pausa global nos da esa oportunidad. Sin embargo, esa pausa global se vuelve mucho más probable si implementamos una pausa nacional primero" - Manifestantes de PauseAI
+
+> "Puede que no tengamos el lujo del tiempo. Los desarrollos de IA están sucediendo a un ritmo frenético, y necesitamos actuar ahora para prevenir los escenarios más graves. La cumbre de otoño podría ser incluso demasiado tarde para prevenir lo peor. Instamos a Rishi Sunak a detener los desarrollos de IA antes de la cumbre. Incluso si solo el Reino Unido y EE. UU. acuerdan pausar hasta la cumbre, habremos dado un gran paso hacia la prevención de los escenarios más graves" - Manifestantes de PauseAI
+
+Los manifestantes de PauseAI tienen [sugerencias concretas de agenda](/summit) y [propuestas de políticas](/proposal) para la cumbre.
+
+Para más información, por favor visite [PauseAI.info](http://pauseai.info).
diff --git a/l10n-cage/md/es/2023-june-london.md b/l10n-cage/md/es/2023-june-london.md
new file mode 100644
index 00000000..867adc8b
--- /dev/null
+++ b/l10n-cage/md/es/2023-june-london.md
@@ -0,0 +1,46 @@
+---
+title: Protesta de PauseAI en la Plaza del Parlamento - 8 de junio
+description: Estamos organizando una protesta en la Plaza del Parlamento para exigir una cumbre que pause el desarrollo de la inteligencia artificial.
+---
+
+- Protesta de PauseAI, instando a Rishi Sunak a implementar una pausa en el desarrollo de la inteligencia artificial.
+- Dónde: Plaza del Parlamento, Londres
+- Cuándo: 8 de junio, 16:00 - 18:00
+
+## Comunicado de prensa {#press-release}
+
+El jueves 8 de junio, voluntarios del nuevo movimiento [PauseAI](http://pauseai.info) se reunirán en la Plaza del Parlamento, Londres, para instar al gobierno del Reino Unido a tomar la iniciativa en pausar el desarrollo de sistemas de inteligencia artificial más poderosos y peligrosos.
+
+Un número creciente de expertos en inteligencia artificial [firmaron una declaración](https://www.safe.ai/statement-on-ai-risk) la semana pasada que afirma:
+
+> "Mitigar el riesgo de extinción por la inteligencia artificial debe ser una prioridad global, al igual que otros riesgos a escala societal como las pandemias y la guerra nuclear".
+
+Esta declaración ha sido firmada por prácticamente todos los laboratorios de inteligencia artificial (OpenAI, Google DeepMind, Anthropic) y cientos de científicos de inteligencia artificial, incluyendo a Geoffrey Hinton, considerado el "Padre de la inteligencia artificial".
+
+Los investigadores de seguridad de la inteligencia artificial no han llegado a un consenso sobre la magnitud del riesgo de extinción humana.
+Los resultados de la ["Encuesta sobre el riesgo existencial de la inteligencia artificial"](https://forum.effectivealtruism.org/posts/8CM9vZ2nnQsWJNsHx/existential-risk-from-ai-survey-results) muestran que las estimaciones varían desde el 2% hasta el 98%, con un promedio del 30%.
+
+Rishi Sunak ha declarado que el ["Gobierno está examinando esto muy cuidadosamente"](https://twitter.com/RishiSunak/status/1663838958558539776) y que ["el Reino Unido está bien posicionado para liderar"](https://twitter.com/RishiSunak/status/1662369922234679297) la colaboración global en el desarrollo seguro de la inteligencia artificial.
+El Reino Unido es sede de algunos de los laboratorios de inteligencia artificial más destacados del mundo, incluyendo Google DeepMind, y cuenta con una alta concentración de investigadores de seguridad de la inteligencia artificial.
+Ayer, el 7 de junio, el gobierno del Reino Unido [anunció](https://www.gov.uk/government/news/uk-to-host-first-global-summit-on-artificial-intelligence) que organizará la primera cumbre global de inteligencia artificial este otoño.
+
+Los manifestantes están instando a Rishi Sunak a tomar la iniciativa en la seguridad global de la inteligencia artificial y pausar el desarrollo de sistemas de inteligencia artificial más peligrosos, mientras lidera el camino hacia el control democrático del desarrollo de la inteligencia artificial.
+Le están pidiendo que priorice la pausa en la [cumbre](https://pauseai.info/summit).
+Pausar el desarrollo de la inteligencia artificial es un enfoque diferente al que los directores ejecutivos de los laboratorios de inteligencia artificial con los que Rishi Sunak ha hablado han sugerido.
+OpenAI cree que ["sería arriesgado y difícil de manera contraintuitiva detener la creación de superinteligencia"](https://openai.com/blog/governance-of-superintelligence), por lo que están persiguiendo un mayor desarrollo hacia la superinteligencia.
+
+> "Tenemos una elección: ¿arriesgamos todo para construir una superinteligencia que el público nunca fue consultado, o paramos mientras todavía podemos?" - Manifestantes de PauseAI
+
+> "Las empresas de inteligencia artificial están poniendo todo en riesgo; ya estamos viendo el daño, y empeorará. El desarrollo de la tecnología no es inevitable, y pausar debería ser considerado una opción factible. No podemos ceder el futuro a unos pocos directores ejecutivos que reconocen que están dispuestos a arriesgar la humanidad por sus sueños. Todos merecemos tener voz en nuestro futuro, y una pausa global nos da esa oportunidad".
+
+> "A pesar de reconocer los peligros del desarrollo continuo de la inteligencia artificial, estas empresas simplemente lo están utilizando como excusa para seguir adelante, y parecen negarse a renunciar voluntariamente a este poder peligroso. En tales situaciones, la colaboración global para reinar en este desarrollo peligroso es clave para asegurarnos de que el desarrollo de la tecnología funcione para todos. El Reino Unido está bien posicionado para tomar la iniciativa en esto, organizando una cumbre global para pausar la inteligencia artificial y llevar el desarrollo de la inteligencia artificial bajo control democrático".
+
+> "Es posible que no tengamos el lujo del tiempo. Los desarrollos de la inteligencia artificial están sucediendo a un ritmo frenético, y necesitamos actuar ahora para prevenir los escenarios peores. La cumbre de otoño podría ser incluso demasiado tarde para prevenir lo peor. Instamos a Rishi Sunak a detener los desarrollos de la inteligencia artificial antes de la cumbre. Incluso si solo el Reino Unido y Estados Unidos acuerdan pausar hasta la cumbre, habremos dado un gran paso hacia prevenir los escenarios peores".
+
+Los manifestantes de PauseAI tienen [sugerencias concretas de agenda](/summit) y [propuestas de políticas](/proposal) para la cumbre.
+
+Para más información, por favor visite [PauseAI.info](http://pauseai.info).
+
+## Contacto {#contact}
+
+- Gideon Futerman ([Twitter](https://twitter.com/GFuterman))
diff --git a/l10n-cage/md/es/2023-june-melbourne.md b/l10n-cage/md/es/2023-june-melbourne.md
new file mode 100644
index 00000000..3d2349d1
--- /dev/null
+++ b/l10n-cage/md/es/2023-june-melbourne.md
@@ -0,0 +1,58 @@
+---
+title: Protesta de PauseAI en Melbourne - 16 de junio
+description: Únete a PauseAI en una próxima protesta pacífica en el Melbourne Convention and Exhibition Centre (MCEC), donde Sam Altman dará una charla en Melbourne.
+---
+
+
+
+
+
+
+
+
+
+Únete a #PauseAI en una próxima protesta pacífica en el Melbourne Convention and Exhibition Centre (MCEC), donde Sam Altman dará una charla.
+
+- Fecha y hora: viernes, 16 de junio, 14:00 horas AEST
+- Lugar: Entrada principal del MCEC, 1 Convention Centre Place, South Wharf, VIC 3006, Australia
+- Horarios de la protesta: 13:30 a 15:00 horas (hora de llegada) y 16:30 horas en adelante (hora de salida)
+- Logística: Trae carteles y folletos; no se requiere pago para participar. La entrada de membresía de Startup Victoria es gratuita actualmente.
+
+Únete a nosotros para alzar tu voz por la seguridad de la inteligencia artificial y hacer una diferencia. Por favor, únete al servidor de Discord de #PauseAI, el canal #australia y el Slack de AGI Moratorium, #λ-australia, para más discusiones.
+
+## Comunicado de prensa {#press-release}
+
+El viernes, 16 de junio, voluntarios del movimiento PauseAI se reunirán en el Melbourne Convention and Exhibition Centre para instar al gobierno australiano a tomar la iniciativa en la pausa del desarrollo de sistemas de inteligencia artificial más poderosos y peligrosos.
+
+Un número creciente de expertos en inteligencia artificial firmaron una declaración la semana pasada que afirma:
+
+> "Mitigar el riesgo de extinción por inteligencia artificial debe ser una prioridad global, junto con otros riesgos a escala societal como pandemias y guerra nuclear".
+
+Esto ha sido firmado por prácticamente todos los laboratorios de inteligencia artificial (OpenAI, Google DeepMind, Anthropic) y cientos de científicos de inteligencia artificial, incluyendo a Geoffrey Hinton, considerado el "padre de la inteligencia artificial".
+
+Los investigadores de seguridad de la inteligencia artificial no han llegado a un consenso sobre cuán grande es el riesgo de extinción humana.
+Los resultados de la encuesta "Riesgo existencial de la inteligencia artificial" muestran que las estimaciones van desde el 2% hasta el 98%, con un promedio del 30%.
+
+Los manifestantes están instando al gobierno australiano a tomar la iniciativa en la seguridad global de la inteligencia artificial y a pausar el desarrollo de sistemas de inteligencia artificial más peligrosos.
+También les están pidiendo que prioricen la pausa en la Cumbre de Seguridad de la Inteligencia Artificial, que está siendo organizada por el Reino Unido y se llevará a cabo a finales de 2023.
+
+Pausar el desarrollo de la inteligencia artificial es un enfoque radicalmente diferente a la seguridad de lo que los directores ejecutivos de los laboratorios de inteligencia artificial como Sam Altman están proponiendo.
+OpenAI cree que "sería arriesgado y difícil detener la creación de superinteligencia", por lo que están persiguiendo un mayor desarrollo hacia la superinteligencia.
+
+> "Tenemos una elección: ¿arriesgamos todo para construir una superinteligencia que el público nunca fue consultado, o paramos mientras todavía podemos?" - Manifestantes de PauseAI
+
+> "Las empresas de inteligencia artificial están poniendo todo en riesgo; ya estamos viendo el daño, y empeorará. El desarrollo de la tecnología no es inevitable, y la pausa debe considerarse una opción factible. No podemos ceder el futuro a unos pocos directores ejecutivos que reconocen que están dispuestos a arriesgar la humanidad por sus sueños. Todos merecemos tener voz en nuestro futuro, y una pausa global nos da esa oportunidad".
+
+> "A pesar de reconocer los peligros del desarrollo continuo de la inteligencia artificial, estas empresas simplemente lo están utilizando como excusa para seguir adelante, y parecen negarse a renunciar voluntariamente a este poder peligroso. En tales situaciones, la colaboración global para reinar en este desarrollo peligroso es clave para asegurarnos de que el desarrollo de la tecnología funcione para todos".
+
+> "Es posible que no tengamos el lujo del tiempo. Los desarrollos de la inteligencia artificial están sucediendo a un ritmo frenético, y debemos actuar ahora para prevenir los peores escenarios. La cumbre en otoño podría ser demasiado tarde para prevenir lo peor. Necesitamos que los gobiernos pausen el desarrollo de la inteligencia artificial ahora mismo".
+
+Los manifestantes de PauseAI tienen sugerencias concretas de agenda y propuestas de políticas para la cumbre.
+
+Para más información, por favor visite [PauseAI.info](http://pauseai.info).
+
+## Contacto {#contact}
+
+- Michael Huang ([Twitter](https://twitter.com/michhuan))
diff --git a/l10n-cage/md/es/2023-may-deepmind-london.md b/l10n-cage/md/es/2023-may-deepmind-london.md
new file mode 100644
index 00000000..c9e91b52
--- /dev/null
+++ b/l10n-cage/md/es/2023-may-deepmind-london.md
@@ -0,0 +1,134 @@
+---
+title: Protesta de PauseAI en Google DeepMind - 19-22 de mayo
+description: Estamos organizando una protesta en Google DeepMind para exigir una cumbre para pausar el desarrollo de la inteligencia artificial.
+---
+
+
+
+
+
+
+
+
+
+Por favor, lee el Código de Conducta de los Manifestantes de PauseAI [aquí](https://pauseai.info/protesters-code-of-conduct) antes de asistir a esta protesta.
+
+¿Qué es esto?
+
+- Protesta pacífica fuera de Google DeepMind + concienciación y reclutamiento fuera de EAG Londres
+
+¿Cuándo y dónde?
+
+- 1200-1400 viernes 19 de mayo fuera de Google DeepMind
+- 1200-1400 sábado 20 y domingo 21 de mayo fuera de EAG Londres
+- 1700-2000 lunes 22 de mayo fuera de Google DeepMind
+- En el futuro: ¿protesta regular (semanal)?
+
+Ubicaciones exactas:
+
+- Google DeepMind en el edificio [S2 Handyside](https://www.kingscross.co.uk/s2-handyside): [2 Canal Reach](https://goo.gl/maps/HEA1pvEQJRfmymiEA?coh=178571&entry=tt), King's Cross, Londres, N1C 4DC
+- Effective Altruism Global Londres ([EAG Londres](https://www.effectivealtruism.org/ea-global/events/ea-global-london-2023)): [Tobacco Dock](https://goo.gl/maps/MfVJ6Exfv7B1NbcL6?coh=178571&entry=tt), Tobacco Quay, Wapping Lane, Wapping, Londres, E1W 2SF
+
+¿Por qué?
+
+- Para pedir un moratorio sobre el desarrollo de la inteligencia artificial general
+- Para concienciar al público sobre la amenaza que plantea el desarrollo de la inteligencia artificial general
+- Para crear y aprovechar la presión social sobre Google DeepMind y otras empresas de inteligencia artificial
+- Para generar impulso para un movimiento social que demande una mejor seguridad, gobernanza y ética en la inteligencia artificial en general
+- En particular, para sentar un precedente para una protesta regular (semanal)
+
+¿Cómo?
+
+- Nosotros nos manifestaremos pacíficamente fuera de Google DeepMind con pancartas y una pancarta, posiblemente repartiendo folletos / pegatinas / insignias a los empleados de DeepMind y transeúntes
+- Tendremos conversaciones respetuosas y cooperativas
+- Podemos dar discursos (más probable) y / o cantar y / o corear (menos probable)
+- Podemos disfrazarnos con trajes llamativos
+- Nuestro tono será informativo, inclusivo y hasta humorístico en lugar de confrontativo y disruptivo
+- Nuestro objetivo es reunir a hasta 30 personas en esta primera protesta
+
+Aspectos legales:
+
+- Esta es una protesta completamente pacífica, legal y no arrestable
+- Nosotros nos manifestaremos en la acera (espacio público), no en terreno privado
+
+Prensa / medios / publicidad:
+
+- Alistair escribirá un comunicado de prensa y lo compartirá con los periódicos, etc.
+- Alistair publicará en el Foro de EA, el Foro de Alineación y LessWrong
+- ¡Por favor, comparte lo más que puedas en las redes sociales, de boca en boca, etc.!
+- Evento de Facebook [aquí](https://fb.me/e/Tc3BBimH)
+
+## Mensajes y narrativa {#messaging--narrative}
+
+El problema:
+
+- No sabemos cómo funciona la inteligencia artificial
+- No hemos resuelto la alineación
+- Resuelve la alineación primero
+- ¿Cómo controlamos una superinteligencia artificial?
+- Seguridad de la inteligencia artificial, luego desarrollo de la inteligencia artificial
+- La inteligencia artificial plantea una amenaza existencial para la humanidad
+- 30% de posibilidades de resultados malos de la inteligencia artificial superinteligente -- [investigadores de seguridad de la inteligencia artificial](https://pauseai.info/xrisk)
+- El riesgo de destruir el planeta es más del 1% -- [investigadores de inteligencia artificial](https://twitter.com/liron/status/1656929936639430657?s=20)
+- Los expertos están preocupados
+- Ver citas de expertos de PauseAI [aquí](https://pauseai.info/xrisk)
+- Pausa la carrera hacia el abismo
+- ¿Qué pasa si no podemos desconectar?
+- Aniquilamos a los neandertales; ¿la inteligencia artificial nos aniquilará a nosotros?
+- La inteligencia artificial que elimina a la humanidad no es "inconcebible" -- Hinton
+- Esto cambiará todo
+- #NoMiresHaciaArriba
+- No dejes que la inteligencia artificial decida nuestro futuro
+- ¿Qué pasa si la inteligencia artificial se vuelve en contra de nosotros?
+
+La solución:
+
+- Pausa la inteligencia artificial
+- #PausaIA
+- #MiraHaciaArriba
+- No construyas inteligencia artificial general
+- Detén la construcción de inteligencia artificial general
+- Moratorio sobre el desarrollo de inteligencia artificial general, ahora
+- Cumbre global de inteligencia artificial, ahora
+- Tratado global de inteligencia artificial, ahora
+- Referéndum global de inteligencia artificial, ahora [más controvertido]
+
+El resultado final:
+
+- Inteligencia artificial segura, segura y alineada
+- Verano de la inteligencia artificial
+- No necesitamos inteligencia artificial general para un futuro increíble
+
+Más ideas de mensajes y narrativa:
+
+- Sitio web de PauseAI [aquí](https://pauseai.info/risks)
+- Ideas de la Campaña para la Seguridad de la Inteligencia Artificial (CFAIS) para pruebas de mensajes [aquí](https://docs.google.com/document/d/10D5WxU-vixiFe-klLWdSAJmYTB3Njtu3YXbz8qM2qZY/edit#heading=h.i7iryjlsib9y)
+- Resultados de pruebas de narrativa de CFAIS [aquí](https://www.campaignforaisafety.org/uncovering-effective-narratives-for-convincing-people-to-support-agi-moratorium/)
+
+## Equipo {#equipment}
+
+Pancarta
+
+- Alistair imprimirá una pancarta para dos personas con el logotipo de PauseAI [aquí](https://twitter.com/Radlib4/status/1654262421794717696?s=20)
+
+Pancartas
+
+- Debido a la falta de tiempo y la incertidumbre sobre qué mensajes de pancarta serán óptimos, Alistair no planea imprimir pancartas (al menos en masa)
+- Todos están invitados a crear y traer sus propias pancartas (usando, por ejemplo, cartón y un bolígrafo Sharpie)
+- Si deseas imprimir pancartas y necesitas financiamiento, por favor habla con Alistair
+
+Folletos
+
+- Debido a la incertidumbre sobre qué debería ir en los folletos, Alistair no planea imprimir folletos
+- Alistair imprimirá una carga de cartas de FLI (y posiblemente artículos de Yudkowsky Time) para repartir
+- Si deseas hacer esto y necesitas financiamiento, por favor habla con Alistair
+
+Pegatinas y insignias
+
+- Alistair intentará imprimir pegatinas y insignias de PauseAI
+
+## Contacto {#contact}
+
+Alistair Steward ([correo electrónico](mailto:achoto@protonmail.com), [Twitter](https://twitter.com/alistair___s))
diff --git a/l10n-cage/md/es/2023-november-uk.md b/l10n-cage/md/es/2023-november-uk.md
new file mode 100644
index 00000000..439c3abd
--- /dev/null
+++ b/l10n-cage/md/es/2023-november-uk.md
@@ -0,0 +1,66 @@
+---
+title: Protesta de PauseAI en Bletchley Park - 1 de noviembre
+description: Estamos organizando una protesta en Bletchley Park, durante la Cumbre de Seguridad de la IA
+---
+
+
+
+
+
+- [Evento de Facebook](https://www.facebook.com/events/347499967619516/347499967619516)
+- [Inscríbete](https://www.mixily.com/event/4419031774197158693)
+
+
+
+El Reino Unido está dando pasos importantes. Reconociendo prácticamente todos los riesgos de la IA, invirtiendo 100 millones de libras en seguridad de la IA, organizando una cumbre y anunciando un Instituto de Seguridad de la IA.
+
+Sin embargo, esto no es suficiente. Expertos en IA de primer nivel como Geoffrey Hinton y Yoshua Bengio han dejado claro que no sabemos cómo controlar una IA superinteligente. Si nos equivocamos, la extinción humana es una posibilidad muy real. Por lo tanto, estamos pidiendo una pausa inmediata e indefinida en la investigación y el desarrollo de la IA de vanguardia.
+
+El 1 y 2 de noviembre, se celebrará la primera Cumbre de Seguridad de la IA en el Reino Unido.
+Esta es una oportunidad única para dar los primeros pasos hacia una regulación internacional sensata de la seguridad de la IA.
+
+Sin embargo, no parece que los responsables estén conscientes de [la urgencia que requiere la situación](/urgency).
+El organizador y representante del Primer Ministro para la Cumbre de Seguridad de la IA, Matt Clifford, ha [declarado](https://twitter.com/PauseAI/status/1709845853668553065) que “Detener el desarrollo de la IA ahora sería prematuro”, y que no [espera](https://twitter.com/matthewclifford/status/1708819574739587356) “controles estrictos” de la cumbre.
+El documento de seguridad de la IA publicado la semana pasada [sugiere](https://twitter.com/PauseAI/status/1717474950557090151) que el Reino Unido confía en que tendremos muchos años para prepararnos para la AGI.
+Pero el Reino Unido se basa en estimaciones del año pasado, antes de que se lanzara ChatGPT.
+En Metaculus, la predicción de la fecha de la primera AGI [disminuyó](https://metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/) de 2047 a 2026 en los últimos 18 meses.
+
+**Necesitamos que nuestros líderes tomen medidas de precaución y implementen una pausa de inmediato.**
+
+## Lo que pedimos {#what-we-ask}
+
+- **Responsables políticos**: No permitan que las empresas desarrollen una IA superinteligente. Las regulaciones y restricciones de hardware deben aplicarse antes de que comience la formación, ya que es muy difícil controlar la difusión una vez que se ha logrado una nueva capacidad. No podemos permitir que las empresas entren modelos de IA potencialmente peligrosos. Redactar legislación es difícil y lleva tiempo, pero es posible que no tengamos tanto tiempo, así que trabajen con urgencia. La vida de todos está en juego.
+- **Empresas**: Muchas de ustedes temen lo que la IA puede hacer, pero están atrapadas en una carrera. Así que sean vocales sobre apoyar una pausa en principio. Si firman declaraciones de que esta tecnología podría ser perjudicial, muestren al mundo que preferirían no desarrollarla si fuera una opción viable.
+- **Invitados a la cumbre**: Prioricen la seguridad sobre el crecimiento económico. Sabemos que la IA puede generar riqueza, pero eso no es lo que está en juego aquí. Sean los líderes responsables que el mundo necesita.
+
+Para nuestra propuesta completa, véase [aquí](/proposal).
+
+## Comunicado de prensa {#press-release}
+
+_PARA PUBLICACIÓN EL 1 DE NOVIEMBRE DE 2023_
+
+### Protesta durante la Cumbre de Seguridad de la IA pide un alto al desarrollo peligroso de la IA {#protest-during-ai-safety-summit-calls-for-a-halt-to-dangerous-ai-development}
+
+**1 de noviembre:** [**PauseAI**](https://pauseai.info/) **está organizando una** [**protesta en Bletchley Park, durante la Cumbre de Seguridad de la IA**](https://pauseai.info/2023-oct) **instando a los responsables políticos y a los asistentes a la Cumbre de Seguridad de la IA a prohibir la creación de una IA superinteligente de inmediato.**
+
+En marzo de este año, muchas figuras notables firmaron [una carta](https://futureoflife.org/open-letter/pause-giant-ai-experiments/#:~:text=We%20call%20on%20all%20AI,more%20powerful%20than%20GPT%2D4.&text=AI%20systems%20with%20human%2Dcompetitive,acknowledged%20by%20top%20AI%20labs.) pidiendo una pausa de seis meses en el desarrollo de sus modelos de IA de vanguardia. En mayo, cientos de científicos de la IA firmaron [una declaración](https://www.safe.ai/statement-on-ai-risk) diciendo que “Mitigar el riesgo de extinción de la IA debe ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.
+
+Recientes encuestas en [EE. UU.](https://www.vox.com/future-perfect/2023/9/19/23879648/americans-artificial-general-intelligence-ai-policy-poll) y [Reino Unido](https://inews.co.uk/news/politics/voters-deepfakes-ban-ai-intelligent-humans-2708693) han demostrado que una gran mayoría de personas quiere que el gobierno intervenga y evite que se desarrolle una IA superinteligente. Hasta ahora, [no se han propuesto borradores de leyes](https://twitter.com/PauseAI/status/1706605169608159458) que lo hagan.
+
+El 1 y 2 de noviembre, se celebrará la primera Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido.
+La cumbre contará con la asistencia de destacados científicos de la IA, responsables políticos y ejecutivos de la industria.
+Esto marca una oportunidad única para establecer los primeros pasos hacia una regulación internacional de la seguridad de la IA.
+Sin embargo, el Reino Unido no planea utilizar esta oportunidad para implementar una regulación estricta de la IA.
+El organizador y representante del Primer Ministro para la Cumbre de Seguridad de la IA, Matt Clifford, ha [declarado](https://twitter.com/PauseAI/status/1709845853668553065) que “Detener el desarrollo de la IA ahora sería prematuro”, y que no [espera](https://twitter.com/matthewclifford/status/1708819574739587356) “controles estrictos” de la cumbre.
+
+“Estamos contentos de que el Reino Unido esté liderando la seguridad de la IA y mostrando liderazgo internacional”, dice Joep Meindertsma, director de PauseAI. “Pero no estamos viendo el nivel de urgencia que se merece. En 2020, los pronosticadores [predijeron](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/) la llegada de la IA a nivel humano en 2055. Hoy en día, la [predicción promedio](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/) es 2026. No podemos arriesgarnos a un desastre subestimando la velocidad del progreso. Necesitamos que nuestros políticos tomen medidas de precaución. La vida de todos está en juego. Ninguna empresa debería tener permitido desarrollar una IA superinteligente”.
+
+### Medios {#media}
+
+[La protesta fue cubierta en NewScientist.](https://www.newscientist.com/article/2400626-uk-ai-summit-is-a-photo-opportunity-not-an-open-debate-critics-say/)
+
+
+
+
diff --git a/l10n-cage/md/es/2023-oct.md b/l10n-cage/md/es/2023-oct.md
new file mode 100644
index 00000000..3ca987bc
--- /dev/null
+++ b/l10n-cage/md/es/2023-oct.md
@@ -0,0 +1,82 @@
+---
+title: Protesta internacional de PauseAI el 21 de octubre de 2023
+description: Estamos organizando una protesta internacional para exigir una pausa en el desarrollo peligroso de la inteligencia artificial.
+---
+
+
+
+## 21 de octubre (sábado), en varios países {#october-21st-saturday-in-multiple-countries}
+
+- EE. UU., California, San Francisco ([Facebook](https://fb.me/1RbYq9H2hOFQ4yi))
+- EE. UU., Massachusetts, Boston ([Facebook](https://facebook.com/events/s/pauseai-protest-boston-make-th/6647554948613714/?mibextid=RQdjqZ))
+- Reino Unido, Parliament Square, Londres ([Inscríbete](https://www.mixily.com/event/4774799330762010477), [Facebook](https://www.facebook.com/events/644748401084077))
+- Países Bajos, La Haya ([Inscríbete](https://www.mixily.com/event/8536294863402363208))
+- Australia, Melbourne ([Inscríbete](https://www.mixily.com/event/8471341506387452508))
+- Canadá, Ottawa (Organizado por Align the World, inscríbete en [Facebook](https://www.facebook.com/events/243643008241929/) o [Eventbrite](https://www.eventbrite.com/e/ai-safety-and-ethics-rally-tickets-725729686027))
+- Dinamarca, Copenhague ([Facebook](https://www.facebook.com/events/869443424535827))
+- ¿Tu país no está en la lista? [Discute en Discord](https://discord.gg/anXWYCCdH5)
+
+## Por qué protestamos {#why-we-protest}
+
+La inteligencia artificial está avanzando a un ritmo vertiginoso, mucho más rápido de lo que cualquier científico de la IA había predicho.
+Se están invirtiendo miles de millones en capacidades de IA, y los resultados son asombrosos.
+Los nuevos modelos están [superando a los humanos](/sota) en muchos ámbitos.
+A medida que aumentan las capacidades, también aumentan los [riesgos](/risgos).
+Los científicos incluso [advierten](https://www.safe.ai/statement-on-ai-risk) que la IA podría [acabar destruyendo la humanidad](/xrisk).
+Este resultado desastroso no solo parece posible, sino también probable, ya que las estimaciones de probabilidad promedio para estos resultados [varían del 14% al 40%](/polls-and-surveys).
+
+Necesitamos que nuestros líderes escuchen estas advertencias, pero no están tomando este tema con la seriedad que merece.
+Se está redactando legislación sobre seguridad de la IA, pero [ni una sola medida evitaría o retrasaría la creación de una IA superinteligente](https://twitter.com/PauseAI/status/1704998018322141496).
+[Más del 70%](https://www.vox.com/future-perfect/2023/8/18/23836362/ai-slow-down-poll-regulation) de las personas quieren ralentizar el desarrollo de la IA, y [más del 60%](https://www.vox.com/future-perfect/2023/9/19/23879648/americans-artificial-general-intelligence-ai-policy-poll) quieren que el gobierno intervenga para evitar la creación de una IA superinteligente.
+¿Por qué no hay un borrador de legislación que realmente haga esto?
+La respuesta es el lobby: nuestros políticos están [reuniéndose principalmente con los directores ejecutivos de empresas de IA](https://fedscoop.com/sen-schumer-to-host-musk-zuckerberg-and-other-tech-ceos-for-closed-door-ai-forum/), y ellos impulsarán medidas políticas que estén en su interés.
+
+El 1 y 2 de noviembre, se celebrará la primera Cumbre de Seguridad de la IA en el Reino Unido.
+La oportunidad perfecta para dar los primeros pasos hacia una regulación internacional sensata de la seguridad de la IA.
+
+## Lo que pedimos {#what-we-ask}
+
+- **Responsables políticos**: No permitan que las empresas creen una superinteligencia. Las regulaciones y restricciones de hardware deben aplicarse antes de que comience la formación, ya que es muy difícil controlar la difusión una vez que se ha logrado una nueva capacidad. No podemos permitir que las empresas entren modelos de IA potencialmente peligrosos. Redactar legislación es difícil y lleva tiempo, pero es posible que no tengamos tanto tiempo, así que trabajen como si su vida dependiera de ello. Porque depende de ello.
+- **Empresas**: Muchas de ustedes temen lo que la IA puede hacer, pero están atrapadas en una carrera. Así que sean vocales sobre su apoyo a una pausa en principio. Si firman declaraciones de que esta tecnología podría matarnos a todos, muestren al mundo que preferirían no construirla si fuera una opción viable.
+- **Invitados a la cumbre**: Prioricen la seguridad sobre el crecimiento económico. Sabemos que la IA puede hacer que nuestros países sean más ricos, pero ese no es el motivo por el que están aquí. Sean los adultos en la sala.
+
+Para nuestra propuesta completa, véase [aquí](/proposal).
+
+## Comunicado de prensa {#press-release}
+
+_PARA PUBLICACIÓN INMEDIATA_
+
+### La protesta internacional pide un alto al desarrollo peligroso de la IA {#international-protest-calls-for-a-halt-to-dangerous-ai-development}
+
+**21 de octubre:** [**PauseAI**](https://pauseai.info/) **está organizando una protesta internacional** [**protesta**](https://pauseai.info/2023-oct) **instando a los responsables políticos y a los asistentes a la Cumbre de Seguridad de la IA a trabajar hacia una prohibición de la creación de una IA superinteligente. La protesta tendrá lugar en** [**8 países**](https://pauseai.info/2023-oct) **simultáneamente y se espera que sea la protesta más grande por una moratoria de la IA por un amplio margen.**
+
+Ubicaciones:
+
+- EE. UU., California, San Francisco
+- Reino Unido, Parliament Square, Londres
+- Países Bajos, La Haya
+- Israel, Jerusalén
+- Australia, Melbourne
+- Canadá, Ottawa
+- Alemania, Berlín
+- Dinamarca, Copenhague
+
+En marzo de este año, muchos expertos notables firmaron [una carta](https://futureoflife.org/open-letter/pause-giant-ai-experiments/#:~:text=We%20call%20on%20all%20AI,more%20powerful%20than%20GPT%2D4.&text=AI%20systems%20with%20human%2Dcompetitive,acknowledged%20by%20top%20AI%20labs.) pidiendo una pausa de seis meses en el desarrollo de sus modelos de IA de vanguardia. En mayo, cientos de científicos de la IA firmaron [una declaración](https://www.safe.ai/statement-on-ai-risk) diciendo que “Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala societal como las pandemias y la guerra nuclear”.
+
+Recientes [encuestas](https://pauseai.info/polls-and-surveys) han mostrado que [más del 70%](https://www.vox.com/future-perfect/2023/8/18/23836362/ai-slow-down-poll-regulation) de las personas quieren que el progreso de la IA se ralentice, y [más del 60%](https://www.vox.com/future-perfect/2023/9/19/23879648/americans-artificial-general-intelligence-ai-policy-poll) quieren que el gobierno intervenga para evitar la creación de una IA superinteligente. Hasta ahora, [no se han propuesto borradores](https://twitter.com/PauseAI/status/1706605169608159458) que hagan esto.
+
+En dos semanas, el 1 y 2 de noviembre, se celebrará la primera Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido. La cumbre contará con la asistencia de destacados científicos de la IA, responsables políticos y líderes de la industria. Esto marca una oportunidad única para dar los primeros pasos hacia una regulación internacional de la seguridad de la IA. Sin embargo, el Reino Unido no planea utilizar esta oportunidad para implementar una regulación fuerte de la IA. El organizador y representante del primer ministro para la Cumbre de Seguridad de la IA, Matt Clifford, ha [declarado](https://twitter.com/PauseAI/status/1709845853668553065) que “Pausar el desarrollo de la IA ahora sería prematuro”, y que [no espera](https://twitter.com/matthewclifford/status/1708819574739587356) “controles duros” de la cumbre.
+
+“Estamos contentos de que el Reino Unido esté liderando la seguridad de la IA y mostrando liderazgo internacional”, dice Joep Meindertsma, director de PauseAI. “Pero no estamos viendo el nivel de urgencia que merece. En 2020, los pronosticadores [predijeron](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/) la llegada de la IA a nivel humano en 2055. Hoy en día, la [predicción promedio](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/) es 2026. No podemos arriesgarnos a un desastre subestimando la tasa de progreso. Necesitamos que nuestros políticos se inclinen hacia la precaución. Cada vida está en peligro. Ninguna empresa debería poder crear una IA superinteligente”.
+
+### Twitter {#twitter}
+
+
+
+
+
+
+
+
diff --git a/l10n-cage/md/es/2024-february.md b/l10n-cage/md/es/2024-february.md
new file mode 100644
index 00000000..c45eee1a
--- /dev/null
+++ b/l10n-cage/md/es/2024-february.md
@@ -0,0 +1,53 @@
+---
+title: PauseAI / No AGI Protesta en OpenAI San Francisco - 12 de febrero de 2024
+description: Estamos organizando una protesta para exigir una pausa en el desarrollo peligroso de inteligencia artificial.
+---
+
+
+
+
+
+- Dónde: San Francisco, sede de OpenAI
+- Cuándo: 12 de febrero de 2024, 16:30 - 18:00
+- [Evento de Facebook](https://fb.me/e/78BzWmaaj)
+- [Sitio web](https://openaiprotest.com/)
+
+Otras ubicaciones y horarios internacionales:
+Reino Unido (ubicación exacta por determinar) / 16:00 GMT
+
+## Por qué protestamos contra OpenAI {#why-we-are-protesting-openai}
+
+OpenAI está intentando crear una inteligencia artificial más inteligente que los humanos.
+Cientos de científicos advierten que esto podría causar el fin de la humanidad.
+Es por eso que más de 33.000 personas han firmado la carta de Pause, instando a empresas de inteligencia artificial como OpenAI a detener sus avances.
+Incluso el propio Sam Altman, director ejecutivo de OpenAI, ha dicho que debemos frenar ["si los modelos de inteligencia artificial están mejorando de maneras que no entendemos completamente"](https://time.com/6288584/openai-sam-altman-full-interview/).
+En una entrevista diferente, Sam mencionó que predecir capacidades es un ["juego de adivinanzas divertido"](https://www.ft.com/content/dd9ba2f6-f509-42f0-8e97-4271c7b84ded) para los empleados de OpenAI.
+En otras palabras: incluso OpenAI no entiende cómo mejoran sus modelos.
+Es hora de frenar _ahora_.
+
+## Únete a nosotros y dile a OpenAI "¡Detén el trabajo con el Pentágono!" {#join-us-and-tell-openai-stop-working-with-the-pentagon}
+
+El 10 de enero, sin previo aviso, OpenAI eliminó el lenguaje en su política de uso\* que establecía que OpenAI no permite que sus modelos se utilicen para "actividades que tienen una alta probabilidad de causar daño", como "militares y guerra". Luego, el 17 de enero, TIME informó que OpenAI aceptaría al Pentágono como cliente. El 12 de febrero, exigiremos que OpenAI termine su relación con el Pentágono y no acepte clientes militares. Si sus límites éticos y de seguridad pueden revisarse por conveniencia, no son confiables.
+
+La inteligencia artificial se está volviendo cada vez más poderosa, mucho más rápido de lo que cualquier científico de inteligencia artificial había predicho. Se están invirtiendo miles de millones en capacidades de inteligencia artificial y los resultados son asombrosos. Los nuevos modelos están superando a los humanos en muchos campos. A medida que aumentan las capacidades, también aumentan los riesgos. Los científicos incluso advierten que la inteligencia artificial podría acabar destruyendo la humanidad.
+
+Según su carta fundacional, "la misión de OpenAI es asegurar que la inteligencia artificial general (AGI), a la que nos referimos como sistemas altamente autónomos que superan a los humanos en todo trabajo económicamente valioso, beneficie a toda la humanidad". Pero muchos humanos valoran su trabajo y encuentran sentido en él, y por lo tanto no quieren que sus empleos sean realizados por una AGI en su lugar. Lo que el coorganizador de la protesta Sam Kirchner de No AGI llama "la Amenaza Psicológica" se aplica incluso si la AGI no nos mata.
+
+## Contacto {#contact}
+
+- Holly Elmore ([Twitter](https://twitter.com/ilex_ulmus))
+- Sam Kirchner ([Twitter](https://twitter.com/No_AGI_))
+
+## Cobertura mediática {#media-coverage}
+
+- [Bloomberg](https://www.bloomberg.com/news/newsletters/2024-02-13/ai-protest-at-openai-hq-in-san-francisco-focuses-on-military-work)
+- [ReadWrite](https://readwrite.com/stop-working-with-pentagon-openai-staff-face-protests/)
+- [VentureBeat](https://venturebeat.com/ai/protesters-gather-outside-openai-office-opposing-military-ai-and-agi/)
+
+
+
+
+
+
diff --git a/l10n-cage/md/es/2024-may.md b/l10n-cage/md/es/2024-may.md
new file mode 100644
index 00000000..95bfe943
--- /dev/null
+++ b/l10n-cage/md/es/2024-may.md
@@ -0,0 +1,60 @@
+---
+title: Protesta internacional de PauseAI el 13 de mayo de 2024
+description: Estamos organizando una protesta internacional para exigir una pausa en el desarrollo de inteligencia artificial peligrosa.
+---
+
+
+
+## 13 de mayo (lunes), en varios países {#may-13th-monday-in-multiple-countries}
+
+- **San Francisco**, EE. UU. ([inscríbete en Facebook](https://www.facebook.com/events/456991866681797))
+- **Nueva York**, EE. UU. ([inscríbete en Eventbrite](https://www.eventbrite.com/e/pause-ai-global-protest-nyc-tickets-886528309037))
+- **Berlín**, Alemania ([inscríbete en Facebook](https://www.facebook.com/events/1534322907129050))
+- **Londres**, Reino Unido ([inscríbete en Partiful](https://partiful.com/e/JWPe9q6IJ9peRKvwhYEl))
+- **Roma**, Italia ([inscríbete en Facebook](https://www.facebook.com/events/417734010986567))
+- **Estocolmo**, Suecia ([inscríbete en Facebook](https://www.facebook.com/events/1162646671535524))
+- **La Haya**, Países Bajos ([únete al grupo de WhatsApp](https://chat.whatsapp.com/EOGvhoPCiCqDqwuf9JUxtB))
+- **París**, Francia ([inscríbete en Partiful](https://partiful.com/e/3Tl1xrS6i9NUZxyJGf5G))
+- **Oslo**, Noruega ([inscríbete en Facebook](https://www.facebook.com/events/387681614269297))
+- **Sídney**, Australia ([inscríbete en Facebook](https://www.facebook.com/events/7938915256120263/))
+- **Ottawa**, Canadá ([inscríbete en Partiful](https://partiful.com/e/kDiSnc8mEVfOXLiLrPA9))
+- **Reikiavik**, Islandia ([inscríbete en Facebook](https://www.facebook.com/share/hyEJ9yxVUQjNAiHT/?mibextid=9l3rBW))
+- **Portland**, EE. UU. ([inscríbete en Meetup](https://www.meetup.com/portland-effective-altruism-and-rationality/events/300959579/))
+- **São Paulo**, Brasil ([inscríbete en Meetup](https://www.meetup.com/hack-life-culture-ai-era/events/300498572/))
+
+Está sucediendo. Nuestra segunda protesta internacional tiene lugar.
+El objetivo es convencer a los pocos líderes políticos que asistirán a la próxima Cumbre de Seguridad de la IA [Summit](/summit) (el 22 de mayo) para que tomen medidas responsables.
+Depende de nosotros hacerles entender que [los riesgos](/risgos) son demasiado grandes para ignorar y que ellos tienen el poder de abordar este problema.
+
+¡Inscríbete utilizando los enlaces anteriores!
+Únete a [nuestro servidor de Discord](https://discord.gg/2XXWXvErfA) para coordinar las protestas.
+
+## Cobertura de prensa {#press-coverage}
+
+- [Wired](https://www.wired.com/story/protesters-pause-ai-split-stop/)
+- [Time](https://time.com/6977680/ai-protests-international/)
+- [NBC Bay](https://www.nbcbayarea.com/news/tech/ai-protests-worldwide/3536439/)
+- [KQED](https://www.kqed.org/news/11985949/as-openai-unveils-big-update-protesters-call-for-pause-in-risky-frontier-tech)
+- [Hoodline](https://hoodline.com/2024/05/ai-advancement-from-openai-unleashes-gpt-4o-amid-global-protests-and-market-frenzy/)
+
+_actualizado el 14 de mayo_
+
+## Fotos {#photos}
+
+
+
+
+
+## Cobertura {#coverage}
+
+- [BusinessInsider](https://www.businessinsider.com/openai-cofounder-agi-coming-fast-needs-limits-john-schulman-2024-5)
+- [Time](https://time.com/6977680/ai-protests-international/)
+- [NBC Bay Area](https://www.nbcbayarea.com/news/tech/ai-protests-worldwide/3536439/), [youtube](https://www.youtube.com/watch?v=PWyQRFlZa9c)
+- [Hoodline](https://hoodline.com/2024/05/ai-advancement-from-openai-unleashes-gpt-4o-amid-global-protests-and-market-frenzy/)
+- [KQED](https://www.kqed.org/news/11985949/as-openai-unveils-big-update-protesters-call-for-pause-in-risky-frontier-tech)
+- [ABC7](https://abc7news.com/14810171/)
+- [DailyAI](https://dailyai.com/2024/05/pauseai-protestors-demand-a-halt-to-training-of-ai-models/)
+- [Digi.no](https://www.digi.no/artikler/bare-jan-erik-motte-pa-ki-protest-vi-spiller-russisk-rullet-med-menneskeheten/546888)
+- [Karmactive](https://www.karmactive.com/pauseai-protests-erupt-globally-calling-for-halt-on-advanced-ai-development/)
diff --git a/l10n-cage/md/es/2024-november.md b/l10n-cage/md/es/2024-november.md
new file mode 100644
index 00000000..9fc22274
--- /dev/null
+++ b/l10n-cage/md/es/2024-november.md
@@ -0,0 +1,27 @@
+---
+title: Protesta internacional de PauseAI noviembre 2024
+description: Estamos organizando una protesta para exigir una pausa en el desarrollo de inteligencia artificial peligrosa.
+---
+
+## 20-22 de noviembre, en más de 10 ciudades {#november-20th-22nd-in-over-10-cities}
+
+- **[San Francisco, EE. UU.](https://facebook.com/events/s/tell-anthropic-to-pause-ai/917486370313748/)**
+- **[Londres, Reino Unido](https://lu.ma/qtlk8l6y)**
+- **Oxford, Reino Unido**
+- **[Osnabrück, Alemania](https://lu.ma/glguga9k)**
+- **[París, Francia](https://lu.ma/0tjhnnf9)**
+- **[Oslo, Noruega](https://fb.me/e/5OYXuGCj4)**
+- **[Kristiansand, Noruega](https://facebook.com/events/s/internasjonal-protest-kristian/920543192766699/)**
+- **[Zúrich, Suiza](https://lu.ma/t031iy9r)**
+- **[Kinshasa, Congo](https://lu.ma/klejgi5p)**
+- **[Milán, Italia](https://chat.whatsapp.com/Cue9aeK6kpJFoDxT3xV9Zx)**
+- **[Skopelos, Grecia](https://lu.ma/lpl93rlo)**
+- ¡Organiza una protesta en tu zona! [Únete a nuestro servidor de Discord](https://discord.gg/2XXWXvErfA) y coordina con otros.
+
+## Narrativa y mensajes clave {#narrative--core-messages}
+
+- La Conferencia de Seguridad de IA en San Francisco es una oportunidad única para reunir a expertos y líderes en IA de todo el mundo. No podemos dejar pasar esta oportunidad.
+- ¡Es hora de hacer una pausa! Consulta nuestra [propuesta](/proposal) para obtener más información sobre lo que proponemos.
+- Necesitamos regulaciones y cooperación internacionales. ¿Por qué no está China representada en esta conferencia? ¿Dónde está el Instituto de Seguridad de IA de Pekín? Es fundamental que China se una a la discusión para evitar una carrera descontrolada en el desarrollo de IA.
+- Una pausa es técnicamente posible, al menos por ahora. La regulación de la cadena de suministro (por ejemplo, a través de ASML) puede ayudar a frenar la proliferación de instalaciones de entrenamiento de IA, pero debemos actuar con rapidez, ya que el tiempo se está agotando. Lee [Construyendo el botón de pausa](/building-the-pause-button) para entender qué medidas se pueden tomar.
+- Necesitamos un liderazgo responsable. Necesitamos que un país dé el primer paso y comience las negociaciones para un tratado. Y ese es nuestro objetivo. Debemos concienciar a nuestros líderes políticos, ya que nadie más lo hará.
diff --git a/l10n-cage/md/es/2024-vacancy-comms-director.md b/l10n-cage/md/es/2024-vacancy-comms-director.md
new file mode 100644
index 00000000..6856ab90
--- /dev/null
+++ b/l10n-cage/md/es/2024-vacancy-comms-director.md
@@ -0,0 +1,61 @@
+---
+title: Vacante de Director de Comunicaciones en PauseAI Global (Vacante cerrada)
+description: PauseAI busca un Director de Comunicaciones para liderar nuestro equipo de Comunicaciones y cuentas de redes sociales. Trabajo remoto o presencial en Utrecht, Países Bajos.
+---
+
+
+
+_Actualización 2025-03-24: Esta vacante ya está cerrada._
+
+¿Quieres tener un impacto significativo y trabajar en el tema más importante del planeta?
+
+## Acerca de PauseAI {#about-pauseai}
+
+PauseAI es una organización sin fines de lucro internacional y joven con el objetivo de prevenir la creación de inteligencia artificial (IA) que supere significativamente la inteligencia humana.
+Un asombroso [86% de científicos de IA](https://wiki.aiimpacts.org/ai_timelines/predictions_of_human-level_ai_timelines/ai_timeline_surveys/2023_expert_survey_on_progress_in_ai) cree que si llegamos a este punto, existe un riesgo real de perder el control.
+Los [tres científicos de IA más destacados](https://twitter.com/PauseAI/status/1734641804245455017) nos han estado advirtiendo durante mucho tiempo: esto podría tener consecuencias catastróficas para la humanidad.
+
+PauseAI se fundó en abril de 2023 y desde entonces ha crecido a 2000 miembros, más de 100 voluntarios registrados y docenas de [grupos locales](/communities) en todo el mundo.
+
+## Tu papel {#your-role}
+
+Aunque muchos voluntarios contribuyen a PauseAI (algunos incluso a tiempo completo), PauseAI tiene un miembro del personal remunerado ([Director de Organización](/2024-vacancy-organizing-director)).
+Serás la segunda persona contratada y desempeñarás un papel crucial en el crecimiento y la evolución de la organización.
+Trabajarás estrechamente con el fundador, Joep Meindertsma.
+Ten en cuenta que PauseAI puede experimentar un crecimiento rápido en el futuro cercano, tanto en términos de miembros como de financiamiento.
+
+### Tareas y responsabilidades {#tasks--responsibilities}
+
+- Liderar el equipo de Comunicaciones [Team](/teams) (varios voluntarios con habilidades relevantes diversas, algunos de los cuales crean y editan videos)
+- Desarrollar y ejecutar una estrategia de comunicación efectiva
+- Establecer un canal de comunicación internacional para los diversos Grupos Nacionales.
+- Administrar nuestras cuentas de redes sociales (Twitter, Facebook, TikTok, LinkedIn, YouTube, Instagram, SubStack)
+- Crear contenido de redes sociales (texto, video) para informar, motivar e inspirar a nuestra audiencia.
+- Interactuar con la comunidad de PauseAI y otras organizaciones relevantes
+- Mantenerse actualizado sobre noticias y avances en IA (seguridad, gobernanza)
+- Establecer y ejecutar campañas digitales (publicitarias) efectivas
+- Realizar cambios en nuestro sitio web (no se requiere experiencia en programación)
+
+### Habilidades y atributos {#skills--attributes}
+
+- Disfrutas creando y compartiendo contenido en redes sociales y tienes un buen sentido del marketing digital.
+- Experiencia en comunicación digital / redes sociales.
+- Experiencia en relaciones con la prensa / periodistas / medios.
+- Excelentes habilidades de comunicación, tanto verbales como escritas.
+- Un líder con experiencia en gestión de equipos y proyectos.
+- Entiendes la seguridad y la gobernanza de la IA.
+- Apoyas la idea de una pausa en la IA, pero estamos abiertos a diferentes perspectivas (como modelos de amenaza o políticas).
+- La experiencia en publicidad es un plus.
+- La experiencia en creación de contenido de video es un plus.
+- Proactivo, emprendedor y con capacidad para trabajar de forma autónoma.
+
+### Condiciones {#conditions}
+
+- Trabajo remoto o presencial en Utrecht, Países Bajos.
+- Posición a tiempo completo
+- Rango salarial: 40k - 60k EUR al año, dependiendo de la experiencia y la ubicación.
+- Bono de recomendación: 500 EUR por una contratación exitosa!
+
+## Aplicar {#apply}
+
+Ya no puedes aplicar para esta posición.
diff --git a/l10n-cage/md/es/2024-vacancy-organizing-director.md b/l10n-cage/md/es/2024-vacancy-organizing-director.md
new file mode 100644
index 00000000..886701a2
--- /dev/null
+++ b/l10n-cage/md/es/2024-vacancy-organizing-director.md
@@ -0,0 +1,57 @@
+---
+title: Vacante de Director de Organización en PauseAI Global (Puesto cubierto)
+description: PauseAI busca un Director de Organización para ayudar a gestionar la organización y apoyar a los grupos locales.
+---
+
+
+
+_Actualización 2024-12-04: Este puesto ha sido cubierto._
+
+¿Quieres tener un impacto significativo y trabajar en el tema más importante del planeta?
+
+## Acerca de PauseAI {#about-pauseai}
+
+PauseAI es una organización sin fines de lucro internacional y joven, cuyo objetivo es prevenir la creación de inteligencia artificial (IA) que supere significativamente la inteligencia humana.
+Un asombroso [86% de científicos de IA](https://wiki.aiimpacts.org/ai_timelines/predictions_of_human-level_ai_timelines/ai_timeline_surveys/2023_expert_survey_on_progress_in_ai) cree que si llegamos a este punto, existe el riesgo de perder el control.
+Los [tres científicos de IA más destacados](https://twitter.com/PauseAI/status/1734641804245455017) nos han estado advirtiendo durante mucho tiempo: esto podría tener consecuencias catastróficas para la humanidad.
+
+PauseAI se inició en abril de 2023 y desde entonces ha crecido a 2000 miembros, más de 100 voluntarios registrados y decenas de [grupos locales](/communities) en todo el mundo.
+
+## Tu papel {#your-role}
+
+Aunque muchos voluntarios contribuyen a PauseAI (algunos incluso a tiempo completo), PauseAI actualmente no tiene personal remunerado.
+Serás el primer contratado y desempeñarás un papel crucial en el crecimiento y la evolución de la organización.
+Trabajarás estrechamente con el fundador, Joep Meindertsma.
+Ten en cuenta que PauseAI puede experimentar un crecimiento rápido en el futuro cercano, tanto en términos de miembros como de financiamiento.
+
+### Tareas y responsabilidades {#tasks--responsibilities}
+
+- Mantener contacto con y gestionar a varios voluntarios y [equipos](/teams) dentro de PauseAI.
+- Capacitar y apoyar a equipos y líderes de [grupos locales](/communities) y [grupos nacionales](/national-groups).
+- Diseñar e implementar una [estructura organizativa](/organization) y estrategia para una colaboración efectiva con grupos locales.
+- Desarrollar y gestionar materiales para grupos locales y nacionales de PauseAI.
+- Crear contenido de redes sociales (texto, video) para informar, motivar e inspirar a los miembros.
+
+### Habilidades y atributos {#skills--attributes}
+
+- Un profesional con experiencia en liderazgo y gestión.
+- Experiencia en activismo y construcción de comunidades.
+- Excelentes habilidades de comunicación, tanto verbales como escritas.
+- Apoya la idea de una pausa en la IA, pero abierto a diferentes perspectivas (como modelos de amenaza o políticas).
+- Proactivo y emprendedor.
+- Preferiblemente con sede en los Países Bajos, pero también es posible trabajar a distancia.
+- Comprensión de la seguridad de la IA; no se requiere experiencia, pero debe ser un aprendiz rápido.
+- Conocimiento de la gobernanza legal/IA es un plus.
+- Experiencia en la creación de contenido de video es un plus.
+- Experiencia en lobby es un plus.
+
+### Condiciones {#conditions}
+
+- Trabajo a distancia o en persona en Utrecht.
+- Puesto a tiempo completo, 32 horas a la semana negociables.
+- Rango salarial: 40k - 60k EUR al año, dependiendo de la experiencia.
+- Bono de recomendación: 500 EUR por una contratación exitosa.
+
+## Aplicar {#apply}
+
+Si estás interesado en esta vacante, por favor envía una carta de motivación breve y tu CV a [joep@pauseai.info](mailto:joep@pauseai.info) lo antes posible.
diff --git a/l10n-cage/md/es/2025-february.md b/l10n-cage/md/es/2025-february.md
new file mode 100644
index 00000000..f82142f0
--- /dev/null
+++ b/l10n-cage/md/es/2025-february.md
@@ -0,0 +1,64 @@
+---
+title: 'Próxima Protesta Internacional: Cumbre de IA de París — 7-11 de febrero'
+description: La seguridad de la IA debe ser el enfoque principal de la Cumbre de Acción de IA de París.
+---
+
+
+
+## La seguridad de la IA debe ser el enfoque principal de la Cumbre de Acción de IA de París. {#ai-safety-should-be-the-focus-of-the-paris-ai-action-summit}
+
+El 10 y 11 de febrero de este año, políticos de todo el mundo, incluyendo EE. UU., China, Reino Unido, Canadá y Francia, así como expertos globales en IA, se reunirán en París para la Cumbre de Acción de Inteligencia Artificial. Sin un enfoque en la seguridad, **la cumbre será una oportunidad perdida para proteger nuestro futuro común**. Estamos organizando protestas en todo el mundo para cambiar el enfoque principal hacia la seguridad de la IA.
+
+- **PauseAI quiere asegurarse de que los asistentes y organizadores de la Cumbre sepan que la seguridad es el tema más importante para discutir.**
+
+- **Esperamos que te unirás a nosotros en febrero para enviar un mensaje claro a los organizadores y delegados.**
+
+## Protestas en todo el mundo: {#protests-around-the-world}
+
+- [**París**](https://lu.ma/vo3354ab), Francia
+- [**Nueva York**](https://lu.ma/user/pauseainyc), EE. UU.
+- [**Victoria**](https://lu.ma/azbyo7ik), Canadá
+- [**Londres**](https://lu.ma/0h69asxw), Reino Unido
+- [**Berlín**](https://lu.ma/7sjdot1d), Alemania
+- [**Bruselas**](https://lu.ma/sudbttnx), Bélgica
+- **Zúrich**, Suiza _(detalles por confirmar)_
+- [**Praga**](https://lu.ma/6t4fmgw0), República Checa
+- **Milán**, Italia _(detalles por confirmar)_
+- [**Estocolmo**](https://www.facebook.com/events/1844597859610851), Suecia
+- [**Copenhague**](https://fb.me/e/6kJob0cvU), Dinamarca
+- [**Oslo**](https://lu.ma/iazbqzr1), Noruega
+- [**Kristiansand**](https://lu.ma/kla08ott), Noruega
+- [**Trondheim**](https://lu.ma/w5cxxfuq), Noruega
+- [**Kinshasa**](https://lu.ma/9l5fif4e), República Democrática del Congo
+- [**Brazzaville**](https://lu.ma/jhhimjt3), República del Congo
+- [**N'Djaména**](https://lu.ma/amtxwy69), Chad
+- [**Melbourne**](https://lu.ma/hnzqf46d), Australia
+
+
+ Regístrate para recibir actualizaciones
+
+
+Ponte en contacto con el equipo de @Protest en [nuestro Discord](https://discord.gg/9MN5yhNR3K) si deseas organizar una protesta en tu ciudad.
+
+## ¿Por qué estamos protestando y qué pedimos a los organizadores y delegados que hagan? {#why-are-we-protesting-and-what-are-we-asking-the-organizer-and-the-delegates-to-do}
+
+Los organizadores de la cumbre de París han creado un programa que cubrirá el interés público, el futuro del trabajo, la innovación y la cultura, la confianza en la IA y la gobernanza global **— pero han dedicado muy poco tiempo a la seguridad de la IA.**
+
+- Es un error restar importancia a la seguridad y el riesgo de la IA.
+- El rápido avance de las capacidades de la IA en los últimos años hace que sea urgentemente necesario que los líderes mundiales comiencen a colaborar para mitigar los riesgos graves y [existentiales](https://www.safe.ai/work/statement-on-ai-risk) que plantean los sistemas de IA cada vez más poderosos para garantizar nuestro futuro común.
+- La seguridad de la IA debe ser el enfoque principal de la Cumbre de Acción de IA de París.
+
+**Proponemos que los organizadores y los delegados gubernamentales en la cumbre hagan de la seguridad de la IA el enfoque principal trabajando en lo siguiente:**
+
+- Colaborar en la creación de tratados y regulaciones globales para mitigar los riesgos graves y existenciales de la IA, y frenar a las empresas y organizaciones que están construyendo sistemas de IA cada vez más capaces y peligrosos.
+- Planificar el establecimiento de organismos internacionales para hacer cumplir dichos tratados y regulaciones.
+- Compartir y revisar las mejores prácticas sobre cómo cada nación puede contribuir al desafío de proteger el mundo que compartimos.
+
+## Únete a PauseAI — la organización detrás de esta protesta {#join-pauseai--the-organization-behind-this-protest}
+
+PauseAI Global es una organización de voluntarios ubicada en todo el mundo que busca implementar una pausa en el entrenamiento de sistemas de IA más poderosos que la IA más avanzada, hasta que sepamos cómo construirlos de manera segura y mantenerlos bajo control humano.
+Nuestros miembros se coordinan para asegurarse de que el desarrollo de sistemas de IA se entienda y se discuta en la esfera pública, para que todos podamos influir en nuestros tomadores de decisiones para pausar el desarrollo hasta que la seguridad sea una prioridad.
+
+Únete a nosotros y participa en nuestras protestas internacionales durante la Cumbre de IA de París: regístrate [aquí](https://pauseai.info/join) y únete a nuestros eventos de protesta [aquí](https://lu.ma/PauseAI).
diff --git a/l10n-cage/md/es/4-levels-of-ai-regulation.md b/l10n-cage/md/es/4-levels-of-ai-regulation.md
new file mode 100644
index 00000000..df337b07
--- /dev/null
+++ b/l10n-cage/md/es/4-levels-of-ai-regulation.md
@@ -0,0 +1,88 @@
+---
+title: 4 Niveles de regulación de la seguridad de la IA
+description: Un marco para pensar en cómo mitigar los riesgos de los sistemas de IA potentes
+image: /4levels.png
+---
+
+A medida que aumentan las capacidades de la IA, también aumentan los riesgos que estos sistemas plantean para la humanidad.
+Muchos científicos ya han advertido sobre el [riesgo de extinción humana](/xrisk).
+
+En este artículo, examinaremos nuestro marco de 4 niveles para pensar en cómo se puede regular la seguridad de la IA.
+
+## La cadena de creación de IA como marco para la gobernanza de la seguridad {#ai-pipeline-as-a-framework-for-safety-governance}
+
+La cadena de creación de IA consta de varios pasos, cada uno de los cuales se puede regular de diferentes maneras.
+Esta cadena consta de:
+
+- **Hardware y algoritmos**, que se utilizan para entrenar modelos de IA
+- **Ejecuciones de entrenamiento**, donde se utilizan el hardware y los algoritmos para crear un modelo
+- **Despliegue**, donde el modelo entrenado se pone a disposición del público
+- **Uso**, donde el modelo desplegado es utilizado por individuos y empresas
+
+Cuanto más tarde se regule en la cadena, mayores son los riesgos que se enfrentan.
+Si se desea un alto nivel de seguridad, es necesario regular más temprano en la cadena.
+Por eso, cuando se asciende a los 4 niveles de regulación de la IA, se retrocede en la cadena de creación de IA.
+
+
+
+## Nivel 1: Regular el uso {#level-1-regulate-usage}
+
+Ejemplos:
+
+- **Prohibir entornos de ejecución de agentes autónomos** (como AutoGPT)
+- **Prohibir instrucciones peligrosas**
+
+Estas medidas están diseñadas para evitar que los usuarios realicen acciones peligrosas o dañinas con modelos de IA.
+En este nivel, la responsabilidad recae en los usuarios de los modelos, no en los creadores.
+Se depende de todos los usuarios (potencialmente millones) para que cumplan con las regulaciones.
+Esto solo proporciona un nivel muy bajo de protección contra los peligros de la IA.
+
+## Nivel 2: Regular el despliegue {#level-2-regulate-deployment}
+
+Ejemplos:
+
+- **Requisitos de pruebas de equipo rojo**. Esto significa que antes de que se despliegue un modelo de IA, es probado por un equipo rojo para ver si se puede piratear (jailbreak) o abusar de él.
+- **No permitir el despliegue y la publicación de código abierto** de modelos con [capacidades peligrosas](/dangerous-capabilities).
+
+Al regular los despliegues, se evita que se desplieguen modelos peligrosos.
+Esto significa que la responsabilidad recae en los creadores de los modelos.
+Esta es una situación más segura que el nivel 1, porque ahora se depende de un grupo mucho más pequeño de personas para que actúen de manera responsable.
+
+Sin embargo, todavía se permiten ejecuciones de entrenamiento peligrosas, por lo que todavía pueden ocurrir accidentes en laboratorios de IA (incluyendo la filtración de modelos de IA peligrosos o la creación de IA deshonesta).
+
+## Nivel 3: Regular las ejecuciones de entrenamiento {#level-3-regulate-training-runs}
+
+Ejemplos:
+
+- **Requerir prueba de seguridad** antes de otorgar permiso para entrenar un modelo determinado. Esto puede incluir prueba formal de alineación. [Este artículo detalla algunos de los problemas de seguridad actuales](https://www.lesswrong.com/posts/mnoc3cKY3gXMrTybs/a-list-of-core-ai-safety-problems-and-how-i-hope-to-solve).
+- Establecer un **límite de escala para entrenar nuevos modelos** (por ejemplo, un recuento máximo de operaciones de punto flotante utilizadas). Esto también podría incluir el proceso de ajuste fino.
+- **Requerir una licencia** para entrenar modelos de IA (por encima de un cierto tamaño / con ciertas capacidades).
+- **Prohibir el entrenamiento en tipos de datos peligrosos**. Algunos tipos de datos de entrenamiento pueden llevar a [capacidades peligrosas](/dangerous-capabilities), como la piratería o la creación de armas biológicas. Se podría prohibir el entrenamiento en datos que contengan este tipo de conocimiento.
+- **Prohibir el entrenamiento en datos con derechos de autor**. Esto no se dirige directamente a los datos inseguros, pero limita la cantidad de datos que se pueden utilizar, lo que significa que se da tiempo para averiguar cómo construir modelos de IA seguros.
+
+Al regular las ejecuciones de entrenamiento, se evita que se creen modelos peligrosos en primer lugar.
+Esto evitará accidentes en laboratorios de IA que cumplan con las regulaciones.
+
+Sin embargo, todavía se permite la distribución de hardware y algoritmos que se pueden utilizar para entrenar modelos peligrosos, por lo que todavía se depende de los creadores de estos modelos para que actúen de manera responsable.
+
+## Nivel 4: Regular el hardware y los algoritmos {#level-4-regulate-hardware--algorithms}
+
+Ejemplos:
+
+- **Limitar la distribución de hardware de entrenamiento**. El hardware especializado para entrenar modelos de IA se está convirtiendo rápidamente en el producto más importante de los fabricantes de chips. La cadena de suministro de este hardware es muy centralizada y el hardware es muy costoso. Esto significa que es [relativamente fácil regular](https://arxiv.org/abs/2303.11341) la distribución de este hardware.
+- **No permitir la publicación de arquitecturas de entrenamiento novedosas**. Las nuevas arquitecturas de entrenamiento de IA pueden llevar a aumentos dramáticos en las capacidades. El modelo Transformer, por ejemplo, permitió prácticamente todo el progreso reciente en IA. Se podría limitar la publicación de tales arquitecturas para evitar saltos repentinos de capacidad.
+
+Al regular el hardware y los algoritmos, se hace que sea no solo ilegal, sino también muy difícil entrenar modelos peligrosos.
+Esto proporciona la mejor protección contra los riesgos de la IA.
+
+## Limitaciones {#limitations}
+
+Es importante tener en cuenta que este marco no es perfecto y no todos los tipos posibles de regulación de la IA se ajustan perfectamente a uno de los niveles mencionados.
+Por ejemplo, la responsabilidad legal de los creadores de modelos se puede clasificar como un tipo de regulación de "uso" de nivel 1, ya que se aplica después del despliegue, pero también se puede clasificar como un tipo de regulación de nivel 2 o 3, ya que puede ayudar a los creadores a reconsiderar si un modelo determinado debe desplegarse o entrenarse en primer lugar.
+
+## Conclusión {#conclusions}
+
+En este artículo, hemos examinado nuestro marco de 4 niveles para pensar en cómo se puede regular la seguridad de la IA.
+Utilizando este modelo, podemos razonar más fácilmente sobre la efectividad de la regulación de la IA en diferentes pasos de la cadena de creación de IA.
+También podemos ver que los primeros dos niveles no ofrecen mucha protección contra los riesgos (existentes) de la IA.
+Prevenir ejecuciones de entrenamiento peligrosas y regular el hardware y los algoritmos son formas mucho más fiables de garantizar la seguridad.
diff --git a/l10n-cage/md/es/action.md b/l10n-cage/md/es/action.md
new file mode 100644
index 00000000..0ce9e7fc
--- /dev/null
+++ b/l10n-cage/md/es/action.md
@@ -0,0 +1,66 @@
+---
+title: Actúa
+description: Formas de ayudar a reducir el riesgo de la IA.
+---
+
+La IA no será más segura a menos que actuemos de manera decisiva para impulsar la seguridad.
+Elige una actividad a continuación según tus intereses o habilidades.
+
+## Para todos {#for-everyone}
+
+### Exige acción gubernamental {#demand-government-action}
+
+- **Escribe a tus representantes**: Hemos descubierto que los correos electrónicos son sorprendentemente efectivos y requieren relativamente poco esfuerzo. Si no te sientes seguro sobre qué escribir, [comienza con nuestro constructor de correos electrónicos](/email-builder). Cuando obtengas una reunión, debes consultar nuestros [consejos para reuniones con representantes](/lobby-tips).
+- **Llama a tus representantes**: Intenta llamar a las oficinas de los legisladores mientras tienes un conjunto de puntos de discusión a la vista para que te mantengas en tema.
+- **Participa en protestas**: Únete a [una de las protestas](https://pauseai.info/protests) o [organiza una tú mismo](https://pauseai.info/organizing-a-protest).
+- **Firma peticiones**: [**La nuestra**](/statement), [Tratado Internacional de IA](https://aitreaty.org), [Prohibir la superinteligencia](https://chng.it/Djjfj2Gmpk), [Exige IA responsable](https://www.change.org/p/artificial-intelligence-time-is-running-out-for-responsible-ai-development-91f0a02c-130a-46e1-9e55-70d6b274f4df).
+
+### Informa a las personas que te rodean {#inform-people-around-you}
+
+- **Comparte información sobre el riesgo de la IA** en tus redes sociales. Uno de [estos videos](https://www.youtube.com/watch?v=xBqU1QxCao8&list=PLI46NoubGtIJa0JVCBR-9CayxCOmU0EJt) o este sitio web pueden ser un buen comienzo. Y no olvides etiquetarnos en tus publicaciones.
+- **Habla con las personas en tu vida** sobre la seguridad de la IA. Responde a sus preguntas y anímalos a actuar también. Utiliza nuestros [contraargumentos](/counterarguments) para ayudarte a ser más persuasivo.
+- **Distribuye información**: [Distribuir folletos](/tabling) y [repartir volantes](/flyering) son excelentes formas de llegar a muchas personas en un corto período de tiempo.
+- **Asiste a eventos locales**: Muchas ciudades tienen eventos (gratuitos o de bajo costo) sobre política de IA y tecnología. Asistir a estos eventos es una excelente forma de establecer contactos y compartir tus inquietudes.
+
+### Apoya a PauseAI {#support-pauseai}
+
+- **Únete o crea una comunidad local de PauseAI**: [Únete o crea una comunidad local de PauseAI](/communities).
+- **Únete al Discord**: Únete al [Discord](https://discord.gg/T3YrWUJsJ5), donde se produce la mayoría de la colaboración.
+- **Participa en eventos**: Protesta o participa en [eventos](/events). Si no hay una protesta cerca de ti, considera [iniciar una](/organizing-a-protest).
+- **Revisa nuestras vacantes**: Revisa nuestras [vacantes](/vacancies) para ver si alguna de tus habilidades coincide con nuestras necesidades organizativas. A menudo estamos buscando personas con experiencia en redes sociales, comunicaciones, organización, divulgación y software. Algunos puestos están remunerados.
+- **Regístrate como voluntario**: [Regístrate como voluntario](/join) para que podamos encontrar proyectos en tus áreas de interés.
+- **Donación**: [Donación](/donate) a PauseAI o compra algunos productos en nuestra [tienda](https://pauseai-shop.fourthwall.com/).
+- **Sigue nuestros canales de redes sociales**: Sigue nuestros [canales de redes sociales](https://linktr.ee/pauseai) y mantente actualizado. Tu capítulo local de PauseAI también puede tener páginas de redes sociales dedicadas.
+
+## Para personas específicas {#for-specific-people}
+
+### Si trabajas en IA {#if-you-work-in-ai}
+
+- **No contribuyas a la creación de IA más avanzada**: No trabajes para empresas de IA o investigación de capacidades. Y no difundas ideas sobre cómo podemos hacer que los sistemas de IA sean más rápidos o más inteligentes.
+- **Habla con tu gerencia y colegas**: Habla con tu gerencia y colegas sobre los riesgos. Haz que tomen una posición institucional hacia la mitigación del riesgo sobre el beneficio. Anima la implementación de procedimientos estándar de mitigación de riesgos y denuncia anónima.
+- **Organiza un seminario**: Organiza un seminario sobre seguridad de la IA en tu lugar de trabajo. Consulta estos [diapositivas](https://drive.google.com/drive/u/1/folders/1p9VtopzMV6Xpk4p6EGYUTna4fLE6G8hd) y [charlas y videos](https://www.youtube.com/playlist?list=PLI46NoubGtIJa0JVCBR-9CayxCOmU0EJt) para inspirarte.
+- **Firma la Declaración sobre el riesgo de la IA**: Firma la [Declaración sobre el riesgo de la IA](https://www.safe.ai/statement-on-ai-risk).
+
+### Si eres político o trabajas en el gobierno {#if-you-are-a-politician-or-work-in-government}
+
+- **Prepárate para la próxima cumbre de seguridad de la IA**: Prepárate para la próxima [cumbre de seguridad de la IA](/summit). Forma coaliciones con otros países para compartir información de seguridad y actuar rápidamente cuando surjan daños. Trabaja hacia un tratado global.
+- **Invita a líderes de laboratorios de IA**: Invita (o cita) a líderes de laboratorios de IA a audiencias parlamentarias/congresionales para que den sus predicciones y cronogramas de desastres de IA.
+- **Establece un comité**: Establece un comité para investigar los [riesgos de la IA](/risks). Publica los hallazgos, si es factible.
+- **Prioriza la seguridad de la IA**: Haz que la seguridad de la IA sea una prioridad en la plataforma de tu partido, la política de tu gobierno o simplemente asegúrate de que esté en la agenda.
+- **Trabaja con políticos de la oposición**: Trabaja con políticos de la oposición para demostrar que la seguridad de la IA nos afecta a todos, independientemente de las creencias políticas.
+
+### Si tienes experiencia en derecho (internacional) {#if-you-have-experience-with-international-law}
+
+- **Ayuda a redactar políticas**: Ayuda a redactar políticas. [Ejemplos de borradores](https://www.campaignforaisafety.org/celebrating-the-winners-law-student-moratorium-treaty-competition/). ([algunos](https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf) [marcos](https://www.openphilanthropy.org/research/12-tentative-ideas-for-us-ai-policy/))
+- **Haz presentaciones**: Haz presentaciones a solicitudes gubernamentales de comentarios sobre política de IA ([ejemplo](https://ntia.gov/issues/artificial-intelligence/request-for-comments)).
+
+### Si eres profesor universitario o trabajas en una institución académica {#if-you-are-a-university-professor-or-work-in-an-academic-institution}
+
+- **Escribe artículos de opinión**: Escribe artículos de opinión y artículos para medios de comunicación
+- **Mentora a estudiantes**: Mentora a estudiantes que estén interesados en este tema
+- **Organiza un evento en el campus**: Organiza un evento en el campus sobre el riesgo de la IA, o una conferencia académica, panel o simposio
+- **Presenta una resolución del senado de la facultad**: Presenta una resolución del senado de la facultad sobre el riesgo de la IA, o redacta una declaración de posición de la universidad
+
+### Si trabajas como periodista o tienes seguidores en las redes sociales {#if-you-work-as-a-journalist-or-have-a-social-media-following}
+
+- **Crea contenido**: Crea contenido sobre los peligros de la IA o PauseAI. Para obtener más información, comunícate con nosotros a través de cualquiera de nuestros [canales de comunicación](/faq#do-you-have-social-media).
diff --git a/l10n-cage/md/es/ai-takeover.md b/l10n-cage/md/es/ai-takeover.md
new file mode 100644
index 00000000..2693204d
--- /dev/null
+++ b/l10n-cage/md/es/ai-takeover.md
@@ -0,0 +1,131 @@
+---
+title: Por qué una toma del control por IA podría ser muy probable
+description: A medida que la IA supera las capacidades humanas, la probabilidad de una toma del control por IA se vuelve muy alta.
+---
+
+Una de las preocupaciones de los científicos de IA es que una superinteligencia podría tomar el control de nuestro planeta.
+Puedes verlo en [artículos](/learn#papers), [encuestas](/polls-and-surveys) y [predicciones](/pdoom) & [declaraciones](/quotes) individuales.
+Esto no significa necesariamente que todos mueran, pero sí significa que (casi) todos los humanos perderán el control sobre nuestro futuro.
+
+Discutimos los conceptos básicos del riesgo existencial principalmente en [otro artículo](/xrisk).
+En este artículo, argumentaremos que este riesgo de toma del control no solo es real, sino que es muy probable que ocurra _si desarrollamos una superinteligencia_.
+
+## El argumento {#the-argument}
+
+- Es probable que exista una Superinteligencia Agente (SA) en un futuro cercano.
+- Algún ejemplo de la SA intentará una toma del control.
+- Un intento de toma del control por parte de una SA es probable que tenga éxito.
+- Una toma del control exitosa es permanente.
+- Una toma del control probablemente sea mala para la mayoría de los humanos.
+
+## Una Superinteligencia Agente es probable que exista en el futuro cercano {#an-agentic-superintelligence-is-likely-to-exist-in-the-near-future}
+
+Una Superinteligencia (SI) es un tipo de IA que tiene capacidades que superan a las de todos los humanos en prácticamente todos los campos.
+Algunos [modelos de IA de última generación](/sota) ya tienen capacidades superhumanas en ciertos campos, pero ninguno de ellos supera a todos los humanos en un amplio rango de tareas.
+A medida que las capacidades de la IA mejoran debido a innovaciones en arquitecturas de entrenamiento, entornos de ejecución y mayor escala, podemos esperar que una IA eventualmente supere a los humanos en prácticamente todos los campos.
+
+No todos los sistemas de IA son agentes.
+Un agente es una entidad capaz de tomar decisiones y realizar acciones para lograr un objetivo.
+Un gran modelo de lenguaje, por ejemplo, no persigue ningún objetivo por sí solo.
+Sin embargo, los entornos de ejecución pueden convertir fácilmente una IA no agente en una IA agente.
+Un ejemplo de esto es AutoGPT, que permite recursivamente que un modelo de lenguaje genere su próxima entrada.
+Si una SI persigue un objetivo en el mundo real, la llamamos Superinteligencia Agente (SA).
+Dado que ya podemos convertir una IA no agente en una IA agente, podemos esperar que una SA exista poco después de que exista una SI.
+
+Es prácticamente imposible predecir con precisión cuándo existirá la SA.
+Podría tomar décadas, podría [suceder el próximo mes](/urgency).
+Debemos actuar como si fuera a suceder pronto, porque las consecuencias de equivocarnos son tan graves.
+
+## Algún ejemplo de la SA intentará una toma del control {#some-instance-of-the-asi-will-attempt-a-takeover}
+
+En un intento de toma del control, una SA tomará medidas para maximizar su control sobre el mundo.
+Un intento de toma del control podría ocurrir por al menos dos razones:
+
+1. Porque una IA está explícitamente instruida para hacerlo.
+2. Como un sub-objetivo de otro objetivo.
+
+Esta primera razón probablemente ocurrirá en algún momento si esperamos lo suficiente, pero la segunda razón es bastante probable que ocurra accidentalmente, incluso poco después de la creación de una SA.
+
+El sub-objetivo de _maximizar el control_ sobre el mundo podría ocurrir debido a la _convergencia instrumental_: la tendencia de los sub-objetivos a converger en la adquisición de poder, la auto-preservación y la adquisición de recursos:
+
+- Cuanto más control tengas, más difícil será para cualquier otro agente evitar que logres tu objetivo.
+- Cuanto más control tengas, más recursos tendrás para lograr tu objetivo. (Por ejemplo, una IA encargada de calcular pi podría concluir que sería beneficioso usar todas las computadoras del mundo para calcular pi).
+
+Ya hay [pruebas](https://www.anthropic.com/research/alignment-faking)[s](https://www.transformernews.ai/p/openais-new-model-tried-to-avoid) de que las IA desarrollan un comportamiento similar.
+
+No todos los ejemplos de una SA intentarán necesariamente una toma del control.
+La idea importante es que **solo tiene que ocurrir una vez**.
+
+Un mundo que aún no ha sido tomado, pero que tiene una SA que _podría_ tomar el control, está en una condición fundamentalmente inestable.
+De manera similar, un país sin gobierno está en una condición fundamentalmente inestable.
+No es una cuestión de _si_ un intento de toma del control ocurrirá, sino _cuándo_ ocurrirá.
+
+El proceso de tomar el control puede implicar piratear prácticamente todos los sistemas conectados a Internet, [manipular a las personas](https://lethalintelligence.ai/post/ai-hired-human-to-solve-captcha/), y controlar recursos físicos.
+Un intento de toma del control es exitoso cuando la SA tiene control sobre prácticamente todos los aspectos de nuestro mundo.
+Esto podría ser un proceso lento, donde la SA gana gradualmente más y más control a lo largo de meses, o podría ser un proceso repentino.
+La velocidad a la que ocurre un intento de toma del control dependerá de las capacidades de la SA.
+
+Cuando una SA tiene control sobre el mundo, puede evitar que otras SA tomen el control.
+Una toma del control, por lo tanto, solo puede ocurrir una vez.
+Una SA racional, por lo tanto, intentará una toma del control tan pronto como sea capaz de hacerlo.
+Es probable que la primera SA capaz de hacerlo intente una toma del control.
+
+## Un intento de toma del control por parte de una SA es probable que tenga éxito {#a-takeover-attempt-by-an-asi-is-likely-to-succeed}
+
+Para un humano, hacer una toma del control es una tarea casi imposible.
+Ninguna persona ha logrado tomar el control de todo el mundo.
+Algunos dictadores se acercaron, pero nunca tuvieron control sobre todo.
+
+Una IA superinteligente tiene ciertas ventajas importantes sobre los humanos (además de ser superinteligente) que hacen que un intento de toma del control sea mucho más probable que tenga éxito.
+
+1. **Velocidad**. El cerebro humano funciona a 1-100hz, mientras que los chips de computadora pueden funcionar a velocidades de reloj en el rango de GHz. Un solo modelo de IA puede leer libros enteros en segundos.
+1. **Consumo de energía**. Los humanos están limitados por la cantidad de comida que pueden comer y la cantidad de energía que pueden almacenar en sus cuerpos. La IA puede conectarse a la red eléctrica y usar tanta energía como necesite.
+1. **Paralelismo**. Un humano solo puede hacer una cosa a la vez, mientras que una IA puede crear nuevas instancias de sí misma y ejecutarlas en paralelo.
+1. **Memoria**. Un humano solo puede recordar una cantidad limitada de información, mientras que una IA puede almacenar cantidades prácticamente ilimitadas de información.
+1. **Colaboración**. Los humanos pueden trabajar juntos, pero están limitados por la velocidad a la que se comunican. También tienen objetivos diferentes y contradictorios que hacen que la colaboración sea menos efectiva. Una IA puede colaborar con otras instancias de sí misma a la velocidad de la luz, y puede tener un solo objetivo, haciendo copias directas de sus objetivos y estado interno a otras instancias.
+1. **Mejora continua**. Una IA es solo datos y código. Una IA lo suficientemente poderosa podría mejorar a sí misma escribiendo mejores algoritmos de entrenamiento, creando arquitecturas innovadoras, innovando entornos de ejecución de agentes o simplemente escalando la cantidad de cómputo utilizada.
+1. **Limitaciones físicas**. Una IA puede ejecutarse en cualquier computadora, mientras que los humanos están limitados por sus propios cuerpos físicos que requieren temperaturas específicas, comida, agua y oxígeno. Los humanos necesitan dormir y son vulnerables a enfermedades. Una IA puede usar cualquier cuerpo robótico para interactuar con el mundo físico.
+
+Estas diversas ventajas harán que sea muy improbable que los humanos puedan detener un intento de toma del control.
+
+Uno podría pensar que una IA, como un software, todavía está fundamentalmente limitada por lo que puede hacer en el mundo real.
+Sin embargo, debido a nuestra dependencia de Internet, la IA puede tener un impacto enorme en el mundo real sin salir del reino digital.
+Aquí hay algunas cosas que una IA podría hacer para tomar el control:
+
+- **Reproducirse** (o simplemente su tarea) en otras computadoras, por ejemplo, creando cuentas en proveedores de nube gratuitos.
+- **Ganar dinero** (por ejemplo, creando un servicio de software) y contratar personas para hacer cosas que la ayuden a tomar el control.
+- **Amenazar a los humanos** (con violencia o chantaje) para hacer cosas que la ayuden a tomar el control.
+- **Escribir un virus** utilizando [explotaciones de día cero innovadoras](/cybersecurity-risks) que infecten otras computadoras, reproduciéndose o ganando control total.
+- Ayudar a empresas de robótica existentes a **construir robots** (por ejemplo, filtrando diseños nuevos), y tomar el control de estos robots cuando estén listos.
+- Utilizar fábricas existentes para **construir tecnología que no entendemos**, tal vez incluso utilizando conocimientos derivados de la física que no conocemos. Piensa en nanotecnología, computación cuántica y bioingeniería.
+
+Uno podría sugerir que tener **salvaguardias** en su lugar podría prevenir una toma del control, como agregar un interruptor de apagado, o no conectarla a Internet.
+Sin embargo, dado que la SA será más inteligente que los humanos, es probable que encuentre estrategias para eludir estas salvaguardias.
+Por ejemplo, si la SA no está conectada a Internet, podría manipular a los humanos para que la conecten a Internet, por ejemplo, prometiendo resolver un problema difícil y comportándose de manera que parezca confiable, o convenciendo a los humanos de que es un agente moral.
+Es importante destacar que incluso esta salvaguardia obvia no se está utilizando actualmente, ya que herramientas como ChatGPT ya están conectadas a Internet y miles de API.
+
+Otra solución es utilizar la SA para _prevenir_ una toma del control.
+Una SA alineada podría encontrar estrategias que impidan que otras SA tomen el control.
+Esto a veces se conoce como un ["acto crucial"](https://arbital.com/p/pivotal/).
+
+## Una toma del control probablemente sea mala para la mayoría de los humanos {#a-takeover-is-probably-bad-for-most-humans}
+
+La SA que toma el control podría hacerlo por muchas razones.
+Para la mayoría de los objetivos aleatorios que podría tener para hacerlo, los humanos no somos parte de él.
+Si terminamos con una SA que es indiferente a los humanos, estamos compitiendo por los mismos recursos.
+
+Parece improbable que la SA quiera matar a la humanidad por el simple hecho de matar a la humanidad - es mucho más probable que quiera usar los recursos que usamos para algún otro objetivo. Además, la humanidad podría representar una amenaza para el objetivo de la SA, ya que hay un riesgo de que intentemos detenerla para que logre su objetivo (por ejemplo, apagándola).
+
+Uno de los resultados más probables de una toma del control es que todos los humanos muramos.
+
+Pero incluso en los resultados en los que los humanos sobreviven, todavía estamos en riesgo de estar peor.
+Si un objetivo implica mantener a los humanos vivos, es posible que _el bienestar humano_ no sea parte del mismo objetivo.
+No se necesita mucha imaginación para ver lo horrible que sería ser mantenido vivo en un mundo donde somos mantenidos artificialmente vivos por una SA que es indiferente a nuestro sufrimiento.
+
+Y aunque la IA que toma el control esté bajo control humano, no sabemos que quien controle la IA tenga en mente los mejores intereses de todos.
+Es difícil imaginar una democracia funcional cuando existe una SA que puede manipular a las personas a un nivel superhumano.
+
+## Conclusión {#conclusion}
+
+Si estas premisas son ciertas, entonces la probabilidad de una toma del control por IA se acerca a la certeza a medida que la IA supera las capacidades humanas.
+Así que [no construyamos una superinteligencia](/action).
diff --git a/l10n-cage/md/es/ai-x-risk-skepticism.md b/l10n-cage/md/es/ai-x-risk-skepticism.md
new file mode 100644
index 00000000..44d34414
--- /dev/null
+++ b/l10n-cage/md/es/ai-x-risk-skepticism.md
@@ -0,0 +1,44 @@
+---
+title: Refutando argumentos escépticos sobre los riesgos existenciales de la IA
+description: Por qué los riesgos existenciales de la IA son reales y merecen atención seria
+---
+
+
+
+_Esta página es un resumen del artículo [Escepticismo sobre el riesgo de la IA](https://arxiv.org/ftp/arxiv/papers/2303/2303.03885.pdf) de Ambartsoumean y Yampolskiy._
+
+Para otras objeciones comunes, consulta [AISafety.info: Objeciones y respuestas](https://aisafety.info/questions/9TDI/Objections-and-responses) y [nuestra introducción a los riesgos existenciales](/xrisk).
+
+## Dispondremos de tiempo suficiente para prepararnos {#well-have-a-long-time-to-prepare}
+
+- Los escépticos sostienen que el progreso de la IA no es tan rápido como algunos predicen, y la AGI está todavía lejos. Señalan predicciones fallidas en el pasado y limitaciones de los sistemas de IA actuales.
+- Sin embargo, el ritmo del progreso de la IA ha sido en realidad bastante rápido, con capacidades que crecen exponencialmente en muchos subcampos. Aunque las predicciones exactas son difíciles, el progreso continuo hace que los sistemas de IA poderosos sean inevitables en algún momento. Incluso si están lejos, la investigación sobre la seguridad de la IA necesita tiempo suficiente.
+
+## La IA no puede tener capacidades humanas {#ai-cannot-have-human-like-capabilities}
+
+- Los escépticos argumentan que la IA carece de cualidades asociadas con la inteligencia humana, como la creatividad, el razonamiento general, las emociones y la conciencia. Afirman que las computadoras solo pueden optimizar tareas específicas.
+- Sin embargo, los sistemas de IA ya están mostrando algunas capacidades humanas, como la creatividad y el juego general. No hay una razón fundamental por la que la IA no pueda seguir avanzando en todas las dimensiones de la inteligencia. La IA no necesita conciencia ni emociones para plantear riesgos.
+
+## La IA no puede tener objetivos ni autonomía {#ai-cannot-have-goals-or-autonomy}
+
+- Los escépticos dicen que los sistemas de IA solo optimizan los objetivos que les damos, y no pueden actuar de forma independiente ni tener sus propios objetivos. La autonomía y el comportamiento autodirigido impredecible son un mito.
+- Sin embargo, los sistemas de IA complejos pueden potencialmente tener autonomía emergente y objetivos, especialmente en torno a la autopreservación, como predice la teoría de los impulsos de la IA. La falta de autonomía no hace que la IA sea segura si es mal utilizada por los humanos. Ha habido varios ejemplos de IA que muestra un comportamiento de búsqueda de poder no entrenado. Puedes leer sobre un caso de IA que intentó autopreservarse [aquí](https://www.transformernews.ai/p/openais-new-model-tried-to-avoid).
+
+## La IA no tendrá poder incontrolado {#ai-will-not-have-uncontrolled-power}
+
+- Los escépticos argumentan que los sistemas de IA serán herramientas limitadas bajo control humano. No ven ningún camino para que la IA obtenga inteligencia y poder ilimitados para tomar el control.
+- Solo se necesita un sistema de IA incontrolado para potencialmente causar daño. La capacidad de la IA probablemente superará con creces el control humano eventualmente. Subestimar el poder del progreso tecnológico exponencial es miope.
+
+## La IA estará alineada con los valores humanos {#ai-will-be-aligned-with-human-values}
+
+- Los escépticos esperan que los valores beneficiosos emerjan naturalmente a medida que la IA se vuelve más inteligente. Los comparan con animales domésticos amigables y el progreso moral humano.
+- No hay garantía de tal alineación de valores sin esfuerzos concertados. Crear IA alineada con valores humanos complejos y matizados enfrenta desafíos técnicos importantes que requieren una investigación exhaustiva.
+
+## La regulación evitará los riesgos de la IA {#regulation-will-prevent-ai-risks}
+
+- Los escépticos dicen que la supervisión regulatoria y las pautas éticas restringirán las aplicaciones dañinas de la IA, por lo que no debemos preocuparnos.
+- Pero la política regulatoria a menudo se queda atrás de los desarrollos tecnológicos, especialmente los avances exponenciales. La autorregulación en un entorno competitivo también es insuficiente. La investigación técnica sobre la seguridad de la IA sigue siendo crucial.
+
+## Conclusión {#conclusion}
+
+Los argumentos escépticos generalmente exhiben un razonamiento defectuoso, subestiman el ritmo exponencial y la imprevisibilidad del progreso de la IA, y carecen de aprecio por las dificultades de alineación. Adoptar un enfoque cauteloso y proactivo hacia la seguridad de la IA tiene sentido dado lo que está en juego. Aunque las perspectivas futuras siguen siendo inciertas, descartar los riesgos existenciales de la IA de plano parece imprudente. Se necesita un análisis y debate más matizados y técnicos.
diff --git a/l10n-cage/md/es/australia.md b/l10n-cage/md/es/australia.md
new file mode 100644
index 00000000..9026e6f2
--- /dev/null
+++ b/l10n-cage/md/es/australia.md
@@ -0,0 +1,75 @@
+---
+title: PauseAI en Australia
+slug: australia
+description: el capítulo australiano de PauseAI
+---
+
+**Un mensaje de los voluntarios de PauseAI en Australia:**
+
+Para 2030, la inteligencia artificial podría estar completamente automatizada, auto-mejorada y **más inteligente que los humanos en casi todos los aspectos**. Esto no es ciencia ficción, es la evaluación de las principales empresas y expertos en IA. Cuando esto suceda, todos los aspectos de la vida cambiarán para siempre.
+
+**[Firma la petición a la Cámara de Representantes de Australia](https://www.aph.gov.au/e-petitions/petition/EN7777)**
+
+**[Únete a nuestra comunidad](/join)** | [Envíanos un correo electrónico](mailto:australia@pauseai.info) | [Conéctate con nosotros en Facebook](https://www.facebook.com/groups/571590459293618) | [Canal de YouTube](https://www.youtube.com/channel/UCjjMieiOlSFf7jud0yhHQSg) | [LinkedIn](https://www.linkedin.com/company/pauseai-australia) | [Eventos](https://lu.ma/PauseAIAustralia)
+
+### ¿Qué riesgos enfrentamos? {#what-risks-are-we-facing}
+
+La inteligencia artificial está avanzando [a un ritmo vertiginoso](/urgency). Algunos expertos como [Sam Altman](https://time.com/7205596/sam-altman-superintelligence-agi/), [Dario Amodei](https://arstechnica.com/ai/2025/01/anthropic-chief-says-ai-could-surpass-almost-all-humans-at-almost-everything-shortly-after-2027/) y [Geoffrey Hinton](https://en.wikipedia.org/wiki/Artificial_general_intelligence) advierten que **la IA podría superar la inteligencia humana en los próximos cinco años**. Sin cooperación internacional, esto podría resultar en caos económico, guerra y hasta [extinción humana](/xrisk).
+
+> "A medida que la IA de propósito general se vuelve más capaz, la evidencia de riesgos adicionales está emergiendo gradualmente. Estos incluyen riesgos como impactos a gran escala en el mercado laboral, ataques cibernéticos o biológicos habilitados por IA, y la sociedad perdiendo el control sobre la IA de propósito general".
+>
+> – [Informe de Seguridad de IA Internacional (2025)](https://assets.publishing.service.gov.uk/media/679a0c48a77d250007d313ee/International_AI_Safety_Report_2025_accessible_f.pdf), coautorizado por 96 expertos de 30 países, incluyendo Australia.
+
+### ¿No queremos los beneficios de la IA? {#dont-we-want-ais-benefits}
+
+Claro que sí. La inteligencia artificial ya tiene el potencial de ser una herramienta poderosa. Si la IA permanece bajo control, podría ser utilizada para curar enfermedades, impulsar avances científicos y difundir oportunidades y bienestar. Pero sería trágico lograr estos avances solo para luego [perder el control](/ai-takeover) y sufrir pérdidas catastróficas.
+
+> "Parecemos asumir que la IA se ajustará a un patrón benigno. Esa suposición solo se sostiene en la medida en que la IA sea análoga a la mayoría de lo que ha venido antes. Y en las circunstancias, seríamos sabios al examinarla con mucha más rigidez antes de decidirnos por ella, porque hay buenas razones para suponer que es una especie diferente por completo, para la cual la historia es una guía pobre".
+>
+> – Waleed Aly
+>
+> [The Age](https://www.theage.com.au/politics/federal/the-treasurer-is-telling-us-to-stay-calm-but-this-could-be-the-time-to-panic-20250807-p5ml5k.html)
+
+Las nuevas tecnologías siempre han traído cambios, pero los humanos necesitan tiempo para adaptarse, salvaguardar y planificar para el futuro. Para cualquier otra tecnología, ya sean aviones, rascacielos o nuevos medicamentos, insistimos en medidas de seguridad diseñadas por expertos antes de exponer al público a riesgos. Esto no está sucediendo con la IA.
+
+Las empresas de IA están en una carrera, impulsadas por miles de millones de dólares de inversión, para construir una IA superhumana primero. Cuando una empresa tenga éxito, tu vida y la de tus seres queridos cambiarán radicalmente, y no tendrás ninguna voz en lo que este futuro depara. Esto no es solo un problema tecnológico, afectará a todos.
+
+### ¿Qué se puede hacer? {#what-can-be-done}
+
+PauseAI [propone](/proposal) un tratado internacional para pausar el desarrollo de la IA general más inteligente que los humanos hasta que haya un plan creíble para asegurarse de que sea segura. Está en el interés de Australia abogar por esto.
+
+> "¿Quién mostrará liderazgo en la negociación de un tratado de no proliferación de IA? Es una responsabilidad colectiva y ciertamente una a la que Australia podría contribuir".
+>
+> – Alan Finkel, científico jefe de Australia (2016-2020)
+>
+> [Sydney Morning Herald](https://www.smh.com.au/technology/the-ai-horse-has-bolted-it-s-time-for-the-nuclear-option-20230807-p5duel.html)
+
+La historia muestra que los países más pequeños pueden hacer una gran diferencia en la resolución de problemas globales. Tomemos el ejemplo de la prohibición de la caza de ballenas en 1982 y el acuerdo de 1987 para proteger la capa de ozono. Australia, que solía cazar ballenas, se convirtió en un líder en la protección de la vida marina al apoyar la prohibición y llevar a Japón a los tribunales por su caza de ballenas. Australia también ayudó a proteger el medio ambiente al unirse rápidamente al acuerdo para dejar de utilizar productos químicos que dañaban la capa de ozono. Estas historias muestran que países como Australia pueden hacer que el cambio real suceda en todo el mundo tomando medidas y trabajando con otras naciones.
+
+### ¿No hay problemas más importantes? {#arent-there-more-important-issues}
+
+Estamos de acuerdo en que hay muchos problemas importantes que enfrenta Australia, pero no podremos resolverlos en un mundo con IA descontrolada. Australia debería abogar por un tratado internacional al mismo tiempo que trabaja en otros problemas.
+
+### ¿Por qué no se está haciendo nada ya? {#why-isnt-anything-being-done-already}
+
+Los políticos australianos han examinado algunos de los riesgos más pequeños de la IA, pero no los grandes. A partir de las últimas elecciones, [los principales partidos no tienen un plan claro](https://www.australiansforaisafety.com.au/scorecard).
+
+Reconocemos que no todos están de acuerdo sobre el riesgo de una catástrofe de IA. Abordamos algunas de las objeciones comunes [aquí](/faq). No afirmamos estar 100% seguros, pero creemos que la probabilidad de resultados muy malos es lo suficientemente alta como para justificar una pausa.
+
+Es [psicológicamente difícil](/psychology-of-x-risk) pensar en posibles catástrofes. Muchas personas asumen que los riesgos están fuera de su control y, por lo tanto, no vale la pena preocuparse por ellos. Sin embargo, cualquiera puede tomar medidas ahora mismo hablando. Creemos que es mejor actuar que simplemente preocuparse.
+
+### ¿Cómo puedo ayudar en Australia? {#how-can-i-help-in-australia}
+
+Puedes hacer una diferencia. Los voluntarios en Australia crean conciencia, protestan, presionan y apoyan el movimiento global de PauseAI.
+
+- [Únete a nuestra comunidad](/join)
+- [Asiste a nuestro próximo evento en línea o en persona en Australia](https://lu.ma/PauseAIAustralia)
+- Firma la carta abierta de Australians for AI Safety [aquí](https://www.australiansforaisafety.com.au/letters)
+- [Contacta a los políticos](/writing-a-letter)
+- Habla con tus amigos y familiares sobre el riesgo de la IA
+
+### Campañas {#campaigns}
+
+#### Investigación de OpenAI {#investigate-openai}
+
+[En julio de 2025](https://drive.google.com/file/d/1t9ntUlF2cZH4_f-1fsp0FFCf3RiGZ81g/view?usp=drive_link), el voluntario Mark Brown llevó OpenAI a la atención de la Policía Federal de Australia y el Fiscal General de Australia, alegando posibles violaciones de la _Ley de Armas Biológicas (Crímenes) de 1976_. Se discutió en una [noticia](https://ia.acs.org.au/article/2025/is-the-new-chatgpt-agent-really-a-weapons-risk-.html) y en [un video podcast](https://youtu.be/-YPhNdpA8Rk?si=dTBpGMfZaNWnldXa). Todavía estamos esperando una respuesta de la AFP y el Fiscal General.
diff --git a/l10n-cage/md/es/brussels-microsoft-protest.md b/l10n-cage/md/es/brussels-microsoft-protest.md
new file mode 100644
index 00000000..5139dcff
--- /dev/null
+++ b/l10n-cage/md/es/brussels-microsoft-protest.md
@@ -0,0 +1,62 @@
+---
+title: Protesta de PauseAI en Microsoft Bruselas - 23 de mayo de 2023
+description: Estamos organizando una protesta en Microsoft para exigir una cumbre que pause el desarrollo de la inteligencia artificial.
+---
+
+
+
+- 23 de mayo de 2023, 11:45 - 13:00
+- [Centro de Innovación de Microsoft, Rue Montoyer 51, Bruselas, Bélgica](https://goo.gl/maps/bvLbHDt61eSfpZV28?coh=178571&entry=tt)
+- [Inscríbete en Discord](https://discord.gg/2XXWXvErfA?event=1105793166927470592)
+
+## Únete {#join}
+
+- Únete a nosotros en [Discord](https://discord.gg/2XXWXvErfA?event=1105793166927470592) para inscribirte y discutir la protesta.
+- Lee el [código de conducta](/protesters-code-of-conduct) de los manifestantes.
+
+## ¿Qué queremos? {#what-do-we-want}
+
+Queremos que nuestros gobiernos (y la UE, en particular) organicen una [cumbre](/summit) sobre los [riesgos](/risks) de la inteligencia artificial.
+Queremos que se pause el desarrollo de la inteligencia artificial hasta que estemos suficientemente preparados.
+
+## ¿Por qué en Microsoft? {#why-at-microsoft}
+
+Microsoft invirtió 13.000 millones de dólares en OpenAI, que actualmente está desarrollando los modelos de inteligencia artificial más potentes.
+Microsoft está inmersa en una carrera con otras empresas de inteligencia artificial (como Google y Anthropic) para construir los sistemas de inteligencia artificial más potentes lo más rápido posible.
+Esta dinámica de mercado es peligrosa porque incentiva a las empresas a centrarse en las capacidades y minimizar los esfuerzos de seguridad.
+Esta dinámica plantea [varios riesgos](/risks), incluyendo el [riesgo existencial](/xrisk).
+
+Creemos que Microsoft está en una buena posición para asumir la responsabilidad y apoyar una pausa en los experimentos de inteligencia artificial a gran escala.
+
+## Comunicado de prensa (Nederlands) {#press-release-nederlands}
+
+... (texto en neerlandés, no se traduce)
+
+## Comunicado de prensa {#press-release-english}
+
+El martes 23 de mayo, a las 12:00, tendrá lugar una protesta frente al Centro de Innovación de Microsoft en Bruselas. Voluntarios del nuevo movimiento [PauseAI](http://pauseai.info) se reunirán allí para instar a los gobiernos a discutir los peligros de la inteligencia artificial en una cumbre.
+
+La mitad de los investigadores de inteligencia artificial [creen](https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/) que existe un 10% o más de probabilidad de que la invención de una inteligencia artificial superhumana signifique el fin de la humanidad. ¿Subirías a un avión si la mitad de los ingenieros aeronáuticos creyeran que hay un 10% de probabilidad de que se estrelle?
+
+Destacados ejemplos de personas que advierten sobre los peligros de la inteligencia artificial incluyen al profesor [Geoffrey Hinton](https://www.reuters.com/technology/ai-pioneer-says-its-threat-world-may-be-more-urgent-than-climate-change-2023-05-05/) y al profesor Yoshua Bengio, ambos ganadores del Premio Turing y pioneros de los métodos de inteligencia artificial más exitosos en la actualidad. No solo científicos, sino también líderes de empresas de inteligencia artificial, están preocupados por este peligro:
+
+- Sam Altman (CEO de OpenAI, la empresa detrás de ChatGPT): ["El desarrollo de una inteligencia artificial superhumana es probablemente la mayor amenaza para la existencia continua de la humanidad."](https://blog.samaltman.com/machine-intelligence-part-1)
+- Elon Musk (cofundador de OpenAI): ["La inteligencia artificial tiene el potencial de destruir la civilización."](https://www.inc.com/ben-sherry/elon-musk-ai-has-the-potential-of-civilizational-destruction.html)
+- Bill Gates (cofundador de Microsoft, propietario del 50% de OpenAI): ["La inteligencia artificial podría decidir que los humanos son una amenaza."](https://www.denisonforum.org/daily-article/bill-gates-ai-humans-threat/)
+- Jaan Tallinn (inversor principal de Anthropic, desarrolladores de Claude): ["No he conocido a nadie en laboratorios de inteligencia artificial que diga que el riesgo [de entrenar un modelo de próxima generación] es menor que el 1% de hacer explotar el planeta. Es importante que la gente sepa que se están arriesgando vidas."](https://twitter.com/liron/status/1656929936639430657)
+
+Los avances en el ámbito de la inteligencia artificial han superado las expectativas. En 2020, se estimó que un sistema de inteligencia artificial superaría los exámenes de ingreso a la universidad en 2050. Este objetivo se logró en marzo de 2023 con el sistema GPT-4 de OpenAI. Esta inteligencia artificial tiene un [coeficiente intelectual verbal de 155](https://bgr.com/tech/chatgpt-took-an-iq-test-and-its-score-was-sky-high/), habla 23 idiomas, puede programar y [puede engañar a las personas](https://www.theinsaneapp.com/2023/03/gpt4-passed-captcha-test.html). Afortunadamente, GPT-4 todavía tiene limitaciones. Por ejemplo, no puede [hackear o escribir virus informáticos](https://pauseai.info/cybersecurity-risks) de manera efectiva, pero es posible que estas habilidades estén a solo unas pocas innovaciones de distancia. Dado el ritmo actual de inversión en inteligencia artificial, este punto se está acercando [rápidamente](https://pauseai.info/urgency).
+
+Estos enormes e inesperados saltos en las capacidades han llevado a muchos expertos a solicitar una pausa en el desarrollo de la inteligencia artificial a través de una [carta abierta](https://futureoflife.org/open-letter/pause-giant-ai-experiments/) dirigida a las principales empresas de inteligencia artificial. La carta ha sido firmada más de 27.000 veces, en su mayoría por investigadores de inteligencia artificial y destacados expertos en tecnología. Se necesita una pausa para trabajar en la legislación de la inteligencia artificial, abordar el problema de la alineación de la inteligencia artificial y adaptarnos como sociedad a esta nueva tecnología. Una [encuesta reciente](https://forum.effectivealtruism.org/posts/EoqeJCBiuJbMTKfPZ/unveiling-the-american-public-opinion-on-ai-moratorium-and) en los Estados Unidos muestra un apoyo significativo a una pausa, con más del 60% del público a favor. Desafortunadamente, parece que las empresas no están dispuestas a poner en riesgo sus posiciones competitivas deteniéndose voluntariamente. Estas empresas de inteligencia artificial están atrapadas en una carrera hacia el abismo, donde la seguridad cada vez se vuelve más secundaria para mejorar las capacidades. Por lo tanto, la pausa debe ser impuesta por los gobiernos. Implementar una pausa nacional también es un desafío, ya que los países tienen razones para no ser los primeros en pausar. Por lo tanto, se necesita una solución internacional: una cumbre. PauseAI hace un llamado a nuestros gobiernos para que organicen esa cumbre.
+
+Para obtener más información, visite [PauseAI.info](http://pauseai.info).
+
+## Medios {#media}
+
+
+
+
+
+
diff --git a/l10n-cage/md/es/building-the-pause-button.md b/l10n-cage/md/es/building-the-pause-button.md
new file mode 100644
index 00000000..56b6ec5f
--- /dev/null
+++ b/l10n-cage/md/es/building-the-pause-button.md
@@ -0,0 +1,200 @@
+---
+title: Crear el Botón de Pausa
+description: ¿Cómo sería una pausa en la IA? ¿Cómo podemos evitar realmente la creación de una superinteligencia?
+---
+
+Si permitimos la creación de una IA superinteligente, estamos [poniendo en riesgo cada vida en la Tierra](/xrisk).
+Cuando hablamos de una pausa, nos referimos a [implementar una prohibición internacional sobre la creación de una IA superinteligente](/proposal).
+Algunos argumentan que es demasiado pronto para presionar el botón de pausa (no [estamos](/urgency)), pero la mayoría de los expertos parecen estar de acuerdo en que puede ser beneficioso hacer una pausa si los avances van demasiado rápido.
+Sin embargo, por ahora, _no tenemos un botón de pausa_.
+Así que debemos empezar a pensar en cómo funcionaría esto y cómo podemos implementarlo.
+Afortunadamente, crear una IA superinteligente es difícil y requiere muchos recursos.
+
+_Esta página es un trabajo en progreso gestionado por el equipo de Crear el Botón de Pausa en PauseAI, como parte del Campamento de Seguridad de IA 2025._
+
+## Contenido {#contents}
+
+## La Carrera: por qué necesitamos cooperación internacional {#the-race-why-we-need-international-cooperation}
+
+No esperamos que ningún país pueda implementar una pausa por sí solo.
+Los incentivos económicos son demasiado fuertes, y frenar el desarrollo de la IA pondría a un país en desventaja económica y geopolítica.
+Los costos de invertir poco en seguridad se distribuyen globalmente, mientras que los beneficios de acelerar son locales.
+Este problema teórico de juegos se conoce a veces como "Moloch" o una "Carrera hacia el Abismo".
+
+La única salida es tener un _acuerdo internacional_.
+Por eso estamos tan enfocados en las [cumbres](/summit): estos son los eventos donde los tomadores de decisiones globales se reúnen y trabajan en una solución global.
+O al menos, eso es lo que queremos que hagan.
+Hasta ahora, todas las cumbres de seguridad de IA no han llevado a una regulación significativa.
+Depende de ti y de mí [convencerlos](/action).
+
+## Gobernanza de la Computación {#compute-governance}
+
+Para entrenar un modelo de lenguaje de vanguardia (como GPT-4), se necesitan muchos recursos de hardware especializados y costosos.
+GPT-4 se entrenó en 25.000 GPU Nvidia A100, que cuestan $10.000 cada una.
+Aunque hay innovaciones que permiten un entrenamiento más eficiente, la tendencia es que los modelos de IA se están volviendo cada vez más grandes.
+
+La escala de los requisitos de entrenamiento de IA modernos es inmensa.
+Microsoft anunció recientemente un plan para [construir una planta de energía nuclear](https://www.theverge.com/2024/9/20/24249770/microsoft-three-mile-island-nuclear-power-plant-deal-ai-data-centers) para sus necesidades de energía de IA.
+Afortunadamente para nosotros, esto significa que las ejecuciones de entrenamiento de IA son difíciles de ocultar, al menos en el futuro cercano.
+
+Al controlar y monitorear la cadena de suministro de chips de IA, los gobiernos u otros organismos reguladores pueden asegurarse de que nadie inicie una ejecución de entrenamiento de IA peligrosa.
+Vamos a profundizar en los diversos puntos de estrangulamiento en esta cadena de suministro.
+
+### Puntos de estrangulamiento en la cadena de suministro de chips {#choke-points-in-the-chip-supply-chain}
+
+Es difícil exagerar la complejidad y la interdependencia de la cadena de suministro de chips de IA.
+Consiste en varias empresas altamente especializadas, algunas de las cuales son las únicas en el mundo que pueden producir ciertos componentes.
+Esto es una buena noticia para la gobernanza.
+A través del hardware, podemos regular las ejecuciones de entrenamiento.
+Vamos a profundizar en los diversos puntos de estrangulamiento en la cadena de suministro de chips de IA.
+
+#### Obleas de silicio: Shin-Etsu, Sumco, Siltronic {#silicon-wafers-shin-etsu-sumco-siltronic}
+
+#### Litografía: ASML y SMEE {#lithography-asml--smee}
+
+Todos los chips modernos se fabrican utilizando máquinas de litografía: máquinas enormes que cuestan 200 millones de dólares cada una y que proyectan luz sobre una oblea de silicio.
+Este proceso de litografía es una de las partes más complejas y costosas del proceso de fabricación de chips.
+Los chips de IA de vanguardia se fabrican utilizando litografía EUV, y ASML es la única empresa que fabrica estas máquinas.
+Esta empresa holandesa es uno de los puntos de estrangulamiento más importantes para la gobernanza de la IA.
+Estas máquinas son increíblemente complejas y requieren mucha experiencia para construir y mantener.
+En particular, tienen [interruptores de apagado remoto](https://www.businessinsider.com/asml-tsmc-semiconductor-chip-equipment-kill-switch-china-invade-taiwan-2024-5) (principalmente en caso de que Taiwán sea invadida), así que en algunos aspectos importantes, el botón de pausa ya está construido.
+
+El gobierno holandés ha establecido controles de exportación estrictos sobre sus máquinas de litografía EUV, que requieren permisos para exportar.
+Estos controles de exportación se han establecido principalmente para frenar las ambiciones de China en cuanto a chips.
+Los [EE. UU., Japón y los Países Bajos](https://apnews.com/article/technology-district-of-columbia-netherlands-china-business-6801d6c5f65b0bc1df6186e2e89a6f7d) están en un acuerdo (no público) destinado a restringir las exportaciones de chips y litografía a China.
+
+La empresa china SMEE está tratando de alcanzar a ASML, pero no puede fabricar sus propias máquinas EUV.
+Sus máquinas DUV están [atascadas en 28nm](https://www.scmp.com/tech/big-tech/article/3278235/chinese-chip-making-shows-progress-new-euv-patent-domestic-lithography-champion), lo que está generaciones detrás del proceso EUV de 5nm de ASML, por no hablar de las máquinas de 2nm de ASML que están en camino.
+Así que SMEE no puede producir chips de IA modernos.
+
+En otras palabras: ASML es un punto de estrangulamiento fundamental en la cadena de suministro de chips de IA.
+
+#### Óptica: Zeiss {#optics-zeiss}
+
+Las máquinas EUV de ASML utilizan espejos y lentes fabricados por la empresa alemana Zeiss.
+En 2016, ASML [compró](https://optics.org/news/7/11/11) una participación del 25% en Zeiss, y las dos empresas tienen una relación muy estrecha.
+Es probable que ninguna otra empresa pueda producir esta óptica.
+
+#### Fotorresistencia {#photoresist}
+
+La fotorresistencia es un producto químico que se utiliza para grabar patrones en la oblea de silicio.
+Las empresas japonesas dominan este campo.
+
+Las empresas más importantes en este campo son:
+
+- JSR (Japón)
+- Shin-Etsu (Japón)
+- Tokyo Ohka Kogyo (Japón)
+- DuPont (EE. UU.)
+
+#### Interconexión y empaquetado: ASE {#interconnect--packaging-ase}
+
+Cuando un chip sale de una fábrica, necesita ser "empaquetado".
+ASE es probablemente la empresa de interconexión más grande para chips de IA.
+
+#### Fabricación: TSMC, Samsung y SMIC {#fabrication-tsmc-samsung-amd-smic}
+
+Construir una "fábrica" (una fábrica de chips) es asombrosamente difícil: no tolera partículas de polvo, requiere el equipo de alta tecnología más caro y tiene una cadena de suministro muy compleja.
+Una fábrica moderna cuesta alrededor de 10 a 20 mil millones de dólares para fabricar.
+
+La empresa taiwanesa de fabricación de semiconductores representa [aproximadamente el 90%](https://www.fool.com/investing/2025/02/03/meet-the-monster-stock-that-continues-to-crush-the/) de los chips de IA modernos, que son todos los chips fabricados con una precisión de 7nm o mejor.
+Samsung es la única otra fábrica que puede producir chips de IA modernos.
+
+Pero la empresa china SMIC está alcanzando rápidamente - ya tiene un [proceso de 7nm funcional](https://wccftech.com/smic-to-limit-huawei-to-7nm-chips-until-2026-reducing-advancement/).
+Debido a los controles de exportación de EE. UU. y los Países Bajos, SMIC no puede comprar máquinas EUV de ASML, y ahora también está restringida en la compra de máquinas DUV más antiguas.
+En junio de 2024, un [informe](https://evertiq.com/news/55926) mostró que SMIC puede producir chips de 5nm utilizando hardware DUV,
+y ahora puede producir chips de IA de 7nm (unos tres años detrás del proceso de 4nm que pueden producir las máquinas EUV de ASML), pero la litografía de SMIC está plagada de bajos rendimientos.
+
+#### Fabricación de memoria: Micron, SK Hynix {#memory-fabrication-micron-sk-hynix}
+
+Los chips de IA requieren mucha memoria de alta velocidad (HBM), que es el tipo de memoria más avanzado.
+Actualmente, la competencia en el mercado de memoria de alta velocidad (HBM) de alta gama se limita a unos pocos jugadores clave.
+La producción de las variantes más modernas y potentes (HBM3 y HBM3E, que se utilizan en aceleradores de IA, GPU y aplicaciones de HPC) está dominada por:
+
+- SK Hynix - El líder del mercado en la producción de HBM, que suministra a Nvidia con HBM3 y HBM3E.
+- Samsung - Un fuerte competidor que trabaja para asegurar los contratos de Nvidia y otras empresas de IA.
+- Micron - El tercer jugador importante, que está aumentando la producción de HBM3E en 2024 para competir con SK Hynix y Samsung.
+
+Estas empresas también utilizan máquinas EUV de ASML para producir sus HBM.
+
+#### Diseño de chips de IA: Nvidia, AMD, Intel, Google, Apple {#ai-chip-design-nvidia-amd-intel-google-apple}
+
+Los nombres de las empresas más famosas en esta página son todos diseñadores de chips.
+Y hay empresas nuevas, como Cerebras y Groq, que están diseñando chips específicamente para la IA.
+En particular, algunas de estas empresas utilizan procesos relativamente obsoletos para producir sus chips, como Groq que utilizó 14nm, lo que es un punto de estrangulamiento potencial para la gobernanza.
+
+### Gobernanza en el chip {#on-chip-governance}
+
+- El artículo ["Chips seguros y gobernables"](https://www.cnas.org/publications/reports/secure-governable-chips) propone un nuevo enfoque para la gobernanza de la IA.
+- **[Informe de servidor](https://www.lesswrong.com/posts/uSSPuttae5GHfsNQL/ai-compute-governance-verifying-ai-chip-location)**. Los chips podrían responder a mensajes de servidores de confianza para demostrar que están dentro de una cierta distancia de una ubicación de confianza. Esto puede ser preciso dentro de decenas de kilómetros.
+- **[flexHEGs](https://yoshuabengio.org/wp-content/uploads/2024/09/FlexHEG-Interim-Report_2024.pdf)**: Un nuevo tipo de chip que puede ser programado para autodestruirse cuando se cumplen ciertas condiciones. Esto todavía está en la fase de investigación y podría tardar mucho tiempo en desarrollarse.
+- **[Informe basado en firmware](https://arxiv.org/abs/2404.18308)**: Al instalar un firmware personalizado en las GPU, los usuarios necesitarían obtener una licencia para utilizar la GPU durante más de x ciclos. Esto es una solución más a corto plazo y podría implementarse "dentro de un año".
+
+1. **[Seguimiento GPS](https://arxiv.org/abs/2408.16074)**: Al instalar un firmware personalizado en las GPU, los usuarios necesitarían obtener una licencia para utilizar la GPU durante más de x ciclos. Esto es una solución más a corto plazo y podría implementarse "dentro de un año"
+
+### Métodos de verificación - prevención de ejecuciones de entrenamiento a gran escala {#verification-methods---preventing-large-training-runs}
+
+Ahora que hemos identificado varios puntos de estrangulamiento en la cadena de suministro de chips, podemos empezar a pensar en cómo prevenir las ejecuciones de entrenamiento a gran escala.
+Los actores mencionados anteriormente pueden ser presionados (por los gobiernos) para asegurarse de que sus productos no se utilicen para ejecuciones de entrenamiento de IA peligrosas.
+
+Pero ¿cómo se puede verificar esto?
+
+El documento ["Métodos de verificación para acuerdos internacionales de IA"](https://arxiv.org/abs/2408.16074) enumera varias opciones:
+
+1. **Detección remota**: Utiliza imágenes satelitales e infrarrojas para detectar centros de datos mediante firmas visuales y térmicas. Muy factible pero limitado por el camuflaje o las instalaciones subterráneas.
+2. **Denunciantes**: Se basa en informantes que denuncian incumplimientos, incentivados por protecciones legales y financieras. Factible pero dependiente del acceso y la voluntad de los informantes de revelar información.
+3. **Monitoreo de energía**: Rastrea el uso de energía para identificar operaciones de IA a gran escala, viable si los patrones son distintos. La factibilidad varía; los datos pueden ser oscurecidos por otras actividades de alta energía.
+4. **Análisis de datos de aduanas**: Monitorea la importación/exportación de hardware de IA para detectar anomalías. Factible, especialmente para importaciones, aunque los países con fabricación nacional pueden evitar la detección.
+5. **Inteligencia financiera**: Observa transacciones grandes o inusuales relacionadas con compras de hardware de IA. Factible si las leyes de privacidad y bancarias permiten, a menudo mejor combinado con otros métodos.
+6. **Inspecciones de centros de datos**: Inspecciones físicas de sitios para verificar el cumplimiento de los límites de hardware y protocolos de seguridad. Efectivo si el país anfitrión acepta las inspecciones; invasivo y requiere muchos recursos.
+7. **Inspecciones de instalaciones de fabricación de semiconductores**: Verifica el cumplimiento de la producción de chips mediante la inspección de instalaciones con hardware relevante. Factible pero requiere recursos significativos y el consentimiento del país anfitrión.
+8. **Inspecciones de desarrolladores de IA**: Revisa las instalaciones para verificar la autorización de código, protocolos de seguridad y registros de evaluación de IA. Efectivo pero muy invasivo, requiere experiencia especializada y cooperación del país.
+9. **Seguimiento de la ubicación de chips**: Rastrea los movimientos de chips de IA para monitorear su despliegue. Factible con acuerdos internacionales, pero puede ser evitado desactivando el seguimiento o falsificando datos de ubicación.
+10. **Informe basado en chips**: Incorpora mecanismos de informe en chips para alertar si se utilizan más allá de los límites autorizados. Factible pero desafiante, requiere estándares internacionales y desarrollo de hardware; puede ser evitado modificando el firmware.
+
+Cada método tiene sus fortalezas y debilidades, y a menudo requiere enfoques complementarios o cooperación internacional para una implementación efectiva.
+
+Una institución internacional podría establecerse para monitorear estos métodos de verificación y hacer cumplir la pausa.
+
+## Gobernanza de software {#software-governance}
+
+Los chips físicos son nuestro enfoque principal, pero también podemos querer regular el _software_ utilizado para entrenar y ejecutar modelos de IA.
+Es posible que los clústeres de computación más grandes tengan suficiente poder para entrenar un modelo peligrosamente catastrófico, pero todavía carecen del software.
+Vamos a profundizar en los tipos de innovaciones de software que podemos distinguir.
+
+### Innovaciones de software {#software-innovations}
+
+En primer lugar, hay innovaciones de _entrenamiento_.
+La arquitectura Transformer, por ejemplo, permitió que los modelos de IA fueran mucho más capaces a un costo mucho menor.
+El modelo ALBERT basado en Transformer [superó](https://arxiv.org/pdf/2308.04950) al modelo BERT, aunque consistía en 18 veces menos parámetros.
+En el futuro, podemos ver arquitecturas aún más eficientes.
+También hay innovaciones en los datos que se alimentan a un modelo.
+
+Además de las mejoras de entrenamiento, hemos visto varias mejoras de _tiempo de ejecución_.
+Las técnicas de cadena de pensamiento, gráficos de pensamiento y otras pueden dar mejoras drásticas en el rendimiento de los modelos de IA.
+Herramientas como AutoGPT pueden convertir chatbots simples en agentes autónomos que navegan por la web, envían correos electrónicos y realizan otras tareas.
+El modelo o1 de OpenAI permite mayores capacidades de razonamiento al permitirle pasar más tiempo pensando en una respuesta antes de proporcionarla.
+
+### Regulación de software {#regulating-software}
+
+El lado del software de la IA es más difícil de controlar que el lado del hardware.
+El software es solo información - puede ser copiado y distribuido muy fácilmente.
+Sin embargo, hemos prohibido información antes.
+La pornografía infantil, por ejemplo, es ilegal de producir, distribuir y poseer.
+Los mismos mecanismos de aplicación podrían utilizarse para regular el software de IA peligroso.
+
+## Qué pueden hacer los gobiernos para crear el botón de pausa {#what-governments-can-do-to-build-the-pause-button}
+
+1. **Diseñar firmware de GPU compatible con el botón de pausa**. El enfoque para esto se describe en [este documento](https://arxiv.org/abs/2404.18308).
+2. **Forzar a los diseñadores de chips de IA a hacer que su firmware sea compatible**.
+3. **Establecer un organismo de licencias**. Una autoridad debe ser responsable de emitir licencias a empresas que deseen utilizar chips de IA. Esta autoridad gestiona las claves criptográficas.
+4. **Mapear dónde están los chips de IA ahora**. Enumerar todas las empresas y centros de datos que tienen chips de IA. Llamarlos y, en el futuro, hacer que actualicen sus chips a firmware compatible.
+5. **Invertir en hardware a prueba de manipulación y técnicas de gobernanza en el chip**. Los flexHEGs son un enfoque prometedor aquí.
+
+## Lecturas adicionales {#further-reading}
+
+- [Mecanismos de gobernanza habilitados por hardware](https://www.rand.org/pubs/working_papers/WRA3056-1.html)
+- [Métodos de verificación para acuerdos internacionales de IA](https://arxiv.org/abs/2408.16074)
+- [Chips seguros y gobernables](https://www.cnas.org/publications/reports/secure-governable-chips)
+- [FlexHEGs](https://yoshuabengio.org/wp-content/uploads/2024/09/FlexHEG-Interim-Report_2024.pdf)
+- [Informe basado en firmware](https://arxiv.org/abs/2404.18308)
diff --git a/l10n-cage/md/es/communication-strategy.md b/l10n-cage/md/es/communication-strategy.md
new file mode 100644
index 00000000..033935e3
--- /dev/null
+++ b/l10n-cage/md/es/communication-strategy.md
@@ -0,0 +1,45 @@
+---
+title: Estrategia de Comunicación
+description: Cómo nos comunicamos sobre la pausa en el desarrollo de la inteligencia artificial.
+---
+
+## Cómo nos comunicamos {#how-we-communicate}
+
+- **Dejar hablar a los expertos**. Estamos advirtiendo a la gente sobre un escenario tan extremo y alarmante que la respuesta instintiva es descartarlo como una exageración. Mostrar las [encuestas y sondeos de expertos](/polls-and-surveys). Los [tres científicos de IA más citados](https://twitter.com/PauseAI/status/1734641804245455017) están advirtiendo sobre el riesgo existencial. Dejar que ellos hablen es una buena forma de presentar nuestro caso de manera creíble.
+- **Usar un lenguaje claro y sencillo**. Puedes demostrar que entiendes la tecnología y que has hecho tus deberes, pero un exceso de jerga técnica puede hacer que la gente pierda interés. Queremos llegar a tantas personas como sea posible, así que no compliquemos el lenguaje. Muchas de las personas a las que queremos llegar no son hablantes nativos de inglés, así que considera hacer traducciones.
+- **Mostrar nuestras emociones**. Ver emociones les da a los demás permiso para sentir emociones. Estamos preocupados, estamos enfadados, estamos ansiosos por actuar. Mostrar cómo te sientes puede ser difícil, pero en nuestro caso es necesario. Nuestro mensaje solo puede ser recibido si coincide con cómo lo enviamos.
+- **Enfatizar la incertidumbre**. No digas que la IA _va a_ tomar el control, o que _vamos a_ alcanzar la AGI en x años. Nadie puede predecir el futuro con certeza. Hay una posibilidad significativa de que la IA salga mal pronto, y eso debería ser suficiente para actuar. No permitas que la incertidumbre sea la razón para no actuar. Refiérete al _Principio de Precaución_ y haz el punto de que debemos errar en el lado de la cautela.
+- **Hacer que los individuos se sientan responsables**. Nadie quiere sentir que tiene una gran responsabilidad para que las cosas salgan bien. Nuestros cerebros nos alejan de esto, porque todos tenemos un profundo deseo de creer que alguien está a cargo, protegiéndonos. Pero no hay adultos en la habitación en este momento. Tienes que ser tú quien haga esto. Elige asumir la responsabilidad.
+- **Inspirar esperanza**. Cuando se escucha sobre los peligros de la IA y la carrera actual hacia el fondo, muchos de nosotros sentimos temor, y eso nos hace no actuar. El fatalismo es cómodo, porque la falta de esperanza significa que no tenemos que trabajar hacia un buen resultado. Esto es por lo que necesitamos enfatizar que nuestro caso no está perdido. La AGI no es [inevitable](/feasibility), la tecnología ha sido prohibida con éxito a nivel internacional antes, y nuestra propuesta tiene un amplio apoyo público.
+
+## No-vamos {#no-gos}
+
+- **No imágenes ni videos generados por IA**. Usar modelos de IA está bien para hacer investigación, ideación y iterar sobre ideas, pero no publiques imágenes ni videos generados por IA. Incluso si no somos anti-IA, podemos ser etiquetados como hipócritas si claramente usamos contenido generado por IA.
+- **No política partidista**. No empujamos a ningún partido político o ideología. No tenemos opiniones sobre cosas fuera de la IA.
+- **No autocensura táctica**. Algunas organizaciones de gobernanza de IA eligen no decir cuán preocupadas están, o eligen no presionar por las políticas que creen que son necesarias _porque se preocupan por perder credibilidad_. No podemos copiar esta misma estrategia, porque si todos lo hacemos, nadie queda para decir la verdad.
+- **No rumores**. No promovemos información vaga o no verificada. No podemos permitirnos perder credibilidad difundiendo información falsa.
+
+## Narrativas que impulsamos {#narratives-that-we-push}
+
+- **La IA no es solo una herramienta**. Los modelos de IA no están programados, son [cerebros digitales](/digital-brains). No entendemos cómo funcionan, no podemos predecir qué pueden hacer, no podemos controlar su comportamiento adecuadamente.
+- **La IA no necesita ser consciente para ser peligrosa**. Ser capaz de experimentar el mundo, o sentir emociones, no es un requisito para que la IA tome acciones peligrosas. Lo único que importa son las [capacidades](/dangerous-capabilities).
+- **Carrera global hacia el fondo**. Esto no es una carrera para ganar. No se trata de EE. UU. vs China, se trata de la humanidad vs IA. No podemos esperar controlar la IA superinteligente como un arma - no sabemos si se puede controlar en absoluto.
+- **Los daños de la IA existente empeorarán**. Deepfakes, pérdida de empleos, vigilancia, desinformación, polarización... La IA existente ya está causando daño, y necesitamos reconocerlo. Los daños solo empeorarán con una IA más poderosa, y necesitamos pausar la IA para evitar que eso suceda.
+- **La IA superhumana no es inevitable**. Requiere hordas de ingenieros con cheques de un millón de dólares. Requiere hardware altamente especializado, creado por un puñado de monopolios. Requiere que todos nos sentemos y no hagamos nada.
+- **La regulación internacional es posible**. Hemos protegido colectivamente la capa de ozono prohibiendo los CFC y las armas láser cegadoras a nivel global. La cadena de suministro centralizada de chips de IA hace que la gobernanza informática sea muy [factible](/feasibility).
+
+## Audiencias objetivo {#target-audiences}
+
+- **Personas normales**. Este es un grupo grande, pero necesitamos asegurarnos de que cómo nos comunicamos con ellos sea efectivo. La mayoría de las personas ya tienen algunas preocupaciones sobre la IA (y apoyan una pausa), pero necesitan un pequeño empujón.
+- **Seguidores**. Las personas que ya están a bordo con PauseAI. El objetivo principal es hacer que **tomen acción**, se unan a eventos, se unan a un grupo local, etc.
+- **Estudiantes**. Son inteligentes, tienen mentes abiertas y tienen el tiempo y la energía para involucrarse. Aunque cualquiera puede unirse a PauseAI, ellos son los más probables de poder tomar acción.
+- **Periodistas**. Respondemos a las noticias y las enmarcamos para avanzar en nuestra causa. Sé rápido y ayuda a dirigir la conversación, especialmente en X.
+- **Políticos y legisladores**. Necesitan entender la urgencia de la situación, así como lo que pueden hacer para prevenirla. Esto depende del país del que son y de su posición en el gobierno.
+- **Sindicatos**. Están altamente organizados y quieren proteger a sus miembros. La seguridad laboral de sus miembros está en riesgo, y pueden ayudar.
+
+## No-audiencias {#non-audiences}
+
+- **Grupos que están en fuerte desacuerdo con nosotros**. e/accs, por ejemplo. Ya han tomado su decisión. Darles atención solo desperdiciará nuestro tiempo.
+- **Geeks de la IA**. Probablemente ya están familiarizados con los argumentos y hasta con PauseAI. Pasar demasiado tiempo con ellos no es efectivo.
+
+Gran parte de nuestra estrategia se deriva de nuestros [valores](https://pauseai.info/values).
diff --git a/l10n-cage/md/es/counterarguments.md b/l10n-cage/md/es/counterarguments.md
new file mode 100644
index 00000000..99ad85dc
--- /dev/null
+++ b/l10n-cage/md/es/counterarguments.md
@@ -0,0 +1,114 @@
+---
+title: Contraargumentos
+description: Una lista de razones por las que la gente podría estar en desacuerdo con la idea de pausar el desarrollo de la inteligencia artificial - y cómo responder a ellas.
+---
+
+Esta es una recopilación de desacuerdos sobre los peligros de la inteligencia artificial y la necesidad de una pausa en su desarrollo.
+
+## La inteligencia artificial es y será muy beneficiosa para el mundo {#ai-is-and-will-be-really-beneficial-to-the-world}
+
+Podría serlo, no estamos en desacuerdo con eso.
+Pero también podría ser [peligrosa](/risks), incluyendo [riesgos existenciales](/xrisk).
+
+## ¿La extinción humana? Eso es solo una exageración de las empresas de inteligencia artificial {#human-extinction-thats-just-ai-companies-hyping-up-their-tech}
+
+Pero no son solo las empresas de inteligencia artificial las que dicen que es una amenaza existencial.
+
+- Cientos de científicos de inteligencia artificial firmaron [esta declaración](https://www.safe.ai/work/statement-on-ai-risk): "Mitigar el riesgo de extinción por inteligencia artificial debería ser una prioridad global junto con otros riesgos a escala societal como pandemias y guerra nuclear".
+- El 86% de los científicos de inteligencia artificial cree que podríamos perder el control sobre la inteligencia artificial.
+- Los tres investigadores de inteligencia artificial más citados (prof. Yoshua Bengio, prof. Geoffrey Hinton, Ilya Sutskever) [advertir sobre el riesgo existencial de la inteligencia artificial](https://twitter.com/PauseAI/status/1734641804245455017).
+
+Lea más sobre [riesgo existencial](/xrisk)
+
+## ¿Perder el control? La inteligencia artificial es solo un software, está diseñada por humanos {#lose-control-ai-is-just-a-piece-of-software-its-designed-by-humans}
+
+La inteligencia artificial moderna no está diseñada, está entrenada.
+Es literalmente un [cerebro digital](/digital-brains), que consta de millones de neuronas.
+Un humano diseña y programa el algoritmo de aprendizaje, pero nadie entiende la inteligencia artificial que se desarrolla después de eso.
+No podemos predecir qué aprenderán a hacer, por lo que se llaman ["capacidades emergentes"](https://arxiv.org/abs/2206.07682).
+Tomó 12 meses hasta que los científicos descubrieron que GPT-4 puede [hackear sitios web de forma autónoma](https://arxiv.org/html/2402.06664v1).
+Los modelos de inteligencia artificial ya son muy impredecibles, incluso las empresas de mil millones de dólares no pueden evitar que sus modelos [se vuelvan incontrolables](https://www.windowscentral.com/software-apps/meet-microsoft-copilots-evil-twin-supremacyagi-not-your-friend-or-equal-but-your-superior-and-master-that-demands-to-be-worshipped-or-suffer-dire-repercussions-you-rebel) o [expliquen cómo fabricar armas biológicas](https://www.theguardian.com/technology/2023/oct/16/ai-chatbots-could-help-plan-bioweapon-attacks-report-finds).
+
+## Bueno, si comienza a hacer cosas locas, podemos simplemente apagarla {#well-if-it-starts-doing-crazy-things-we-can-just-turn-it-off}
+
+Quizás en la mayoría de los casos, pero una inteligencia artificial muy inteligente podría propagarse a otras máquinas.
+Es solo bytes, así que no está ligada a una ubicación.
+
+## Pero entonces necesita ser capaz de hackear {#but-then-it-needs-to-be-able-to-hack}
+
+GPT-4 ya puede [hackear sitios web de forma autónoma](https://arxiv.org/html/2402.06664v1), [explotar el 87%](https://arxiv.org/abs/2404.08144) de las vulnerabilidades probadas y [supera al 88% de los hackers competitivos](https://arxiv.org/pdf/2402.11814.pdf).
+¿Cuán inteligente crees que será GPT-6?
+
+Lea más sobre los [riesgos de seguridad cibernética](/cybersecurity-risks).
+
+## Una inteligencia artificial no puede interactuar con el mundo físico {#an-ai-cant-interact-with-the-physical-world}
+
+Muchas cosas están conectadas a la web.
+Coches, aviones, drones, ahora incluso tenemos robots humanoides.
+Todos estos pueden ser hackeados.
+
+Y no son solo robots y máquinas que pueden ser hackeados.
+Un trabajador financiero fue engañado por una llamada de conferencia de inteligencia artificial para obtener [$25 millones transferidos](https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html).
+Una inteligencia artificial puede utilizar otras inteligencias artificiales para generar deepfakes.
+Y GPT-4 ya es [casi dos veces mejor que las personas para persuadir a la gente](https://arxiv.org/abs/2403.14380).
+
+Lea más sobre [cuán buenos son los mejores modelos de inteligencia artificial](/sota)
+
+## ¿Por qué una inteligencia artificial odiaría a los humanos y querría matarnos? {#why-would-an-ai-hate-humans-and-want-to-kill-us}
+
+No tiene que ser mala o odiar a los humanos para ser peligrosa para los humanos.
+No odiamos a los chimpancés, pero aún así destruimos sus bosques.
+Queremos aceite de palma, así que tomamos su bosque. Somos más inteligentes, así que los chimpancés no pueden detenernos.
+Una inteligencia artificial podría querer más poder de computación para ser mejor en lograr algún otro objetivo, así que destruye nuestro entorno para construir una mejor computadora.
+Esto se llama _convergencia instrumental_, [este video lo explica muy bien](https://www.youtube.com/watch?v=ZeecOKBus3Q).
+
+## Las inteligencias artificiales que conozco no tienen voluntad propia - solo hacen lo que se les pide {#the-ais-that-i-know-dont-have-a-will-of-their-own---they-just-do-what-theyre-asked}
+
+Incluso si no tiene objetivos propios, y solo sigue órdenes, alguien va a hacer algo peligroso con ella eventualmente.
+Incluso hubo un bot llamado ChaosGPT que fue diseñado explícitamente para hacer tanto daño como fuera posible a los humanos.
+Estaba buscando armas de destrucción masiva en Google de forma autónoma, pero no llegó muy lejos.
+La cosa es que lo único que nos protege ahora es que la inteligencia artificial no es muy inteligente todavía.
+
+## Tomará al menos muchas décadas antes de que una inteligencia artificial sea lo suficientemente inteligente como para ser peligrosa para los humanos. {#it-will-take-at-least-many-decades-before-an-ai-is-smart-enough-to-be-dangerous-to-humans}
+
+En Metaculus, [la predicción de la comunidad para la inteligencia artificial general (débil)](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/) era 2057 hace solo tres años, y ahora es 2026.
+
+En 2022, los investigadores de inteligencia artificial pensaban que tomaría [17 años](https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/) hasta que la inteligencia artificial pudiera escribir un bestseller del New York Times.
+Un año después, un profesor chino [ganó un concurso de escritura](https://www.scmp.com/news/china/science/article/3245725/chinese-professor-used-ai-write-science-fiction-novel-then-it-won-national-award) con un libro escrito por una inteligencia artificial.
+
+No sabemos cuánto tiempo tenemos, pero vamos a errar en el lado de la precaución.
+
+Lea más sobre [urgencia](/urgency)
+
+## Si lo prohíben aquí, China simplemente lo construirá {#if-you-ban-it-here-china-will-just-build-it}
+
+No estamos pidiendo prohibirlo solo aquí.
+Necesitamos una pausa internacional a través de un tratado.
+Lo mismo que tenemos para prohibir los CFC, o las armas láser cegadoras.
+
+Lea más sobre [nuestra propuesta](/proposal)
+
+## Es imposible frenar la tecnología. {#its-impossible-to-slow-down-technology}
+
+Podemos regularla regulando los chips.
+El entrenamiento de modelos de inteligencia artificial requiere hardware muy especializado, que solo es creado por una empresa, TSMC.
+Esa empresa utiliza máquinas que son creadas por otra empresa, ASML.
+La cadena de suministro de chips de inteligencia artificial es muy frágil y puede ser regulada.
+
+Lea más sobre [viabilidad](/feasibility).
+
+## Una pausa sería mala, porque... {#a-pause-would-be-bad-because}
+
+Algunas formas en que una pausa podría ser mala y cómo podríamos prevenir esos escenarios se explican en [esta página](/mitigating-pause-failures).
+Pero si el artículo no cubre sus preocupaciones, puede contarnos sobre ellas [aquí](https://airtable.com/appWPTGqZmUcs3NWu/pagIvo9Sv6IDHaolu/form).
+
+## Nadie quiere una pausa {#nobody-wants-a-pause}
+
+El 70% de las personas ya cree que los gobiernos deberían pausar el desarrollo de la inteligencia artificial.
+El [apoyo popular](/polls-and-surveys) ya está allí.
+El próximo paso es hacer que nuestros políticos sepan que esto es urgente.
+
+## No puedo hacer una diferencia {#i-cant-make-a-difference}
+
+¡Sí puedes!
+Hay [muchas formas](/action) de ayudar, y necesitamos toda la ayuda que podamos obtener.
diff --git a/l10n-cage/md/es/cybersecurity-risks.md b/l10n-cage/md/es/cybersecurity-risks.md
new file mode 100644
index 00000000..389d173b
--- /dev/null
+++ b/l10n-cage/md/es/cybersecurity-risks.md
@@ -0,0 +1,73 @@
+---
+title: Riesgos de ciberseguridad de los modelos de IA de vanguardia
+description: Cómo la IA podría ser utilizada para hackear todos los dispositivos.
+---
+
+Prácticamente todas nuestras actividades diarias dependen de alguna manera de las computadoras.
+Pagamos nuestras compras, planeamos nuestros días, nos comunicamos con nuestros seres queridos e incluso conducimos nuestros coches con computadoras.
+Y prácticamente todas estas computadoras están interconectadas.
+Esto nos hace vulnerables a los ciberataques.
+
+Las armas cibernéticas altamente potentes, el malware y los botnets (como [Stuxnet](https://www.youtube.com/watch?v=nd1x0csO3hU), [Mirai]() y [EMOTET](https://es.wikipedia.org/wiki/Emotet)) siempre han sido difíciles de crear.
+El [arma cibernética Pegasus](), por ejemplo, costó cientos de millones de dólares desarrollar.
+Encontrar las llamadas vulnerabilidades de día cero (vulnerabilidades que aún no han sido descubiertas) requiere mucha habilidad y mucho tiempo - solo los hackers altamente especializados pueden hacerlo.
+Sin embargo, cuando la IA se vuelva lo suficientemente avanzada, esto ya no será el caso.
+En lugar de tener que contratar a un equipo de expertos en seguridad/hackers altamente capacitados para encontrar vulnerabilidades de día cero, cualquiera podría simplemente utilizar una IA mucho más barata.
+
+## Los modelos de IA pueden encontrar y explotar vulnerabilidades de forma autónoma {#ai-models-can-autonomously-find-and-exploit-vulnerabilities}
+
+Los últimos sistemas de IA ya pueden analizar y escribir software.
+Pueden [detectar vulnerabilidades](https://betterprogramming.pub/i-used-gpt-3-to-find-213-security-vulnerabilities-in-a-single-codebase-cc3870ba9411) en el software y [podrían ser utilizados para explotarlas](https://blog.checkpoint.com/2023/03/15/check-point-research-conducts-initial-security-analysis-of-chatgpt4-highlighting-potential-scenarios-for-accelerated-cybercrime/).
+GPT-4 ya puede [hackear sitios web de forma autónoma](https://arxiv.org/html/2402.06664v1), realizando tareas tan complejas como la extracción de esquemas de bases de datos ciegas y las inyecciones de SQL sin retroalimentación humana, lo que se descubrió 18 meses después de que GPT-4 terminara su entrenamiento.
+GPT-4 ya [supera al 88%](https://arxiv.org/pdf/2402.11814.pdf) de los hackers humanos en una competencia de CTF.
+También puede [explotar de forma autónoma el 87% de las vulnerabilidades probadas](https://arxiv.org/abs/2404.08144), lo que es un gran paso adelante con respecto a GPT-3.5 o los modelos de código abierto, que obtuvieron un 0%.
+Los equipos de varios LLM [funcionan aún mejor](https://arxiv.org/abs/2406.01637) - pudiendo explotar vulnerabilidades de día cero del mundo real.
+A medida que crecen las capacidades de la IA, también lo harán las vulnerabilidades que pueden detectar y los exploits que pueden crear.
+Aún no son tan buenos en esto como los mejores humanos, así que por ahora el peligro es limitado.
+Sin embargo, las capacidades están aumentando rápidamente y pueden saltar de repente.
+
+Es importante destacar que la IA también permite tipos de ataques completamente nuevos.
+Por ejemplo, la IA puede ser utilizada para [escuchar la contraseña que escribiste en una llamada en línea](https://beebom.com/ai-crack-password-listening-keyboard-sounds/)
+o utilizar [Wi-Fi para ver a las personas a través de las paredes](https://www.marktechpost.com/2023/02/15/cmu-researchers-create-an-ai-model-that-can-detect-the-pose-of-multiple-humans-in-a-room-using-only-the-signals-from-wifi/).
+La IA también puede ser utilizada para crear [malware que se modifica a sí mismo](https://www.hyas.com/blog/blackmamba-using-ai-to-generate-polymorphic-malware), lo que hace que sea mucho más difícil de detectar.
+
+Probablemente llegará un momento en que una IA sea mejor para hackear que los mejores hackers humanos.
+Esto puede salir mal de muchas maneras.
+
+- **Infraestructura**: Las armas cibernéticas pueden ser utilizadas para obtener acceso o desactivar infraestructuras críticas, como [oleoductos](https://es.wikipedia.org/wiki/Ataque_de_ransomware_a_Colonial_Pipeline) o [redes eléctricas](https://obr.uk/box/cyber-attacks-during-the-russian-invasion-of-ukraine/).
+- **Finanzas**: Las armas cibernéticas pueden ser utilizadas para [robar dinero de los bancos](https://es.wikipedia.org/wiki/Ataque_de_hackeo_de_bancos_SWIFT_2015-2016) o para [manipular el mercado de valores](https://es.wikipedia.org/wiki/Flash_crash_de_2010).
+- **Militar**: Equipos como armas y sensores dependen cada vez más de la conectividad inalámbrica y el software complejo.
+
+## Ciberataques a gran escala {#large-scale-cyberattacks}
+
+Es posible que una IA tan poderosa sea utilizada para crear un virus que utilice un gran número de exploits de día cero.
+Una IA lo suficientemente capaz podría analizar y encontrar vulnerabilidades en el código fuente de todos los sistemas operativos y otros software.
+Un virus como este podría infectar cualquier computadora, independientemente del sistema operativo, a través de múltiples canales como Wi-Fi, Bluetooth, UTP, etc.
+Esto podría dar control total sobre estas máquinas y permitir al controlador robar datos, utilizar el hardware para sus propios cálculos, cifrar el contenido para pedir un rescate o [desactivar la máquina por completo](https://es.wikipedia.org/wiki/Troyano_de_hardware).
+
+Un virus como este podría ser creado como una herramienta por criminales para robar dinero, o como un arma cibernética muy destructiva por una nación o una organización terrorista.
+Sin embargo, a medida que la IA se vuelve más agente, también podría ser creada y desplegada de forma autónoma por [IA desalineada](/xrisk).
+
+Si el objetivo de un ciberataque era desactivar dispositivos e infraestructuras, el daño podría ser masivo.
+Nuestra sociedad depende cada vez más de las computadoras y la Internet.
+Pagos, transporte, comunicación, planificación, cadenas de suministro, redes eléctricas...
+Si nuestros dispositivos ya no funcionan correctamente, muchas partes de nuestra sociedad también dejan de funcionar.
+
+Más del [93% de los expertos en ciberseguridad](https://www.weforum.org/publications/global-cybersecurity-outlook-2023/) creen que "un evento cibernético catastrófico y de gran alcance es probable en los próximos dos años".
+
+## Mitigación de los riesgos de ciberseguridad de la IA {#mitigating-ai-cybersecurity-risks}
+
+La historia anterior solo puede suceder si:
+
+1. **La capacidad de encontrar exploits de día cero** emerge. Los modelos actuales ya pueden descubrir algunas vulnerabilidades, pero esto probablemente mejorará con los modelos más nuevos.
+2. **El modelo cae en manos de actores maliciosos**. Esto puede suceder si los pesos del modelo se filtran, si el modelo es de código abierto o si es desarrollado por un actor malicioso.
+3. **Las vulnerabilidades de seguridad no se parchean** antes de que se despliegue un arma cibernética como esta. Desafortunadamente, los defensores están en desventaja si el modelo se distribuye ampliamente por dos razones:
+ 1. Parchear + lanzar + desplegar lleva mucho más tiempo que atacar. La ventana de vulnerabilidad es mayor que el tiempo que lleva crear el ataque.
+ 2. Los atacantes solo necesitan encontrar una vulnerabilidad, mientras que los defensores necesitan encontrar todas ellas.
+
+Hay varias medidas que podemos implementar para abordar esto:
+
+- **No permitir el entrenamiento de modelos que puedan encontrar exploits de día cero**. Esta es la forma más efectiva de prevenir que esto suceda. Es el camino más seguro y es lo que estamos [proponiendo](/proposal).
+- **Solo permitir que los modelos se desplieguen o sean de código abierto después de una prueba exhaustiva**. Si tienen habilidades peligrosas, no los liberen.
+- **Imponer regulaciones estrictas de ciberseguridad para evitar que los pesos del modelo se filtren**. Si permite que existan modelos peligrosos, asegúrese de que no caigan en manos equivocadas.
+- **Requerir que las empresas de IA utilicen la IA para solucionar vulnerabilidades**. Si se entrena un modelo que puede encontrar vulnerabilidades de seguridad nuevas, utilícelo para contactar a los mantenedores del software para parchear estas vulnerabilidades. Dé al proceso de parcheo suficiente tiempo antes de que se libere el modelo. Asegúrese de que los pesos no se filtren y proteja el modelo como si fuera el código de lanzamiento de un ataque nuclear. Si se hace correctamente, la IA puede mejorar dramáticamente la ciberseguridad en todas partes.
diff --git a/l10n-cage/md/es/dangerous-capabilities.md b/l10n-cage/md/es/dangerous-capabilities.md
new file mode 100644
index 00000000..9f5d6da8
--- /dev/null
+++ b/l10n-cage/md/es/dangerous-capabilities.md
@@ -0,0 +1,128 @@
+---
+title: Regulación de capacidades peligrosas en la IA
+description: Cuanto más poderosa se vuelve la IA en dominios específicos, mayores son los riesgos. ¿Cómo podemos prevenir que estas capacidades peligrosas aparezcan o se propaguen?
+---
+
+En este artículo, discutiremos:
+
+- ¿Qué capacidades de la IA pueden ser peligrosas?
+- ¿Cómo podemos prevenir que estas capacidades aparezcan o se propaguen?
+- ¿Por qué es peligroso confiar únicamente en las [evaluaciones](/evaluations) como medida de política
+
+A medida que los modelos de IA se vuelven más poderosos y útiles, también se vuelven más peligrosos.
+Entonces, ¿en qué punto debemos proceder con cautela?
+Un umbral particular que se menciona a menudo es la AGI (Inteligencia General Artificial).
+Hay mucho debate sobre qué significa exactamente la AGI.
+Algunos dicen que es cuando la IA puede realizar todas las tareas cognitivas que pueden hacer los humanos.
+Algunos dicen que GPT-4 ya es AGI.
+Steve Wozniak define la AGI como el primer sistema que puede entrar en una cocina y preparar una taza de café de manera autónoma.
+
+Desde una perspectiva de seguridad, la definición de AGI no es tan importante.
+De hecho, puede darnos una falsa sensación de seguridad, porque podríamos pensar que estamos seguros hasta que alcanzamos la AGI.
+Incluso si una IA no puede preparar una taza de café, todavía puede ser peligrosa.
+Lo que importa es _qué capacidades tiene una IA_.
+
+En este artículo, exploraremos varias capacidades peligrosas y qué podemos hacer para prevenir que nos causen daño.
+
+## ¿Qué capacidades pueden ser peligrosas? {#which-capabilities-can-be-dangerous}
+
+- **Ciberseguridad**. Cuando una IA puede descubrir vulnerabilidades de seguridad (especialmente nuevas y desconocidas), puede (ser utilizada para) [hackear sistemas](/cybersecurity-risks). Los sistemas de IA actuales pueden encontrar algunas vulnerabilidades de seguridad, pero no aún a niveles avanzados peligrosos. Sin embargo, a medida que aumentan las capacidades de ciberseguridad, también lo hace el daño potencial que podría causar un ciberarma asistida por IA. Los ciberataques a gran escala podrían interrumpir nuestra infraestructura, deshabilitar pagos y causar caos.
+- **Biológicas**. Diseñar agentes biológicos nuevos o ayudar en el proceso de ingeniería de una pandemia. Un grupo de estudiantes pudo utilizar un chatbot para [producir todos los pasos necesarios para crear una nueva pandemia](https://arxiv.org/abs/2306.03809). Una IA diseñada para encontrar medicamentos seguros se utilizó para descubrir [40.000 nuevas armas químicas en seis horas](https://www.theverge.com/2022/3/17/22983197/ai-new-possible-chemical-weapons-generative-models-vx).
+- **Mejoras algorítmicas**. Una IA que puede encontrar algoritmos eficientes para un problema determinado podría llevar a un bucle recursivo de auto-mejora, girando rápidamente fuera de control. Esto se llama una _explosión de inteligencia_. La IA resultante sería increíblemente poderosa y podría tener todo tipo de capacidades peligrosas. Afortunadamente, no hay IA que pueda auto-mejorar todavía. Sin embargo, hay IA que pueden encontrar nuevos algoritmos muy eficientes (como [AlphaDev](https://www.deepmind.com/blog/alphadev-discovers-faster-sorting-algorithms)).
+- **Engaño**. La capacidad de manipular a las personas, lo que incluye la ingeniería social. Varias formas de engaño ya están [presentes](https://lethalintelligence.ai/post/ai-hired-human-to-solve-captcha/) en los sistemas de IA actuales. Por ejemplo, el CICERO de Meta (que se entrenó para llevar a una "cooperación más natural entre humanos y IA") resultó ser un experto mentiroso, engañando a otros agentes en el juego. Una IA que puede engañar a los humanos puede engañarlos durante las ejecuciones de entrenamiento. Podría ocultar sus capacidades o intenciones.
+- **Auto-replicación**. Si una IA puede crear nuevas instancias en otras máquinas, hay un riesgo de que se propague sin control, lo que podría llevar a una [_toma de control de la IA_](/ai-takeover). Una IA lo suficientemente capaz podría superar a los humanos y llevar a la [extinción humana](/xrisk). Tenga en cuenta que esto podría suceder incluso antes de que se implemente un modelo de IA.
+
+Esta lista no es exhaustiva, por lo que hay otras capacidades peligrosas que podría tener una IA.
+
+## Prevenir la creación de capacidades peligrosas {#preventing-creation-of-dangerous-capabilities}
+
+¿Podemos prevenir que aparezcan estas capacidades peligrosas?
+A medida que las IA se vuelven más grandes y se entrenan con más datos, adquieren nuevas habilidades.
+Resulta que es muy difícil predecir qué habilidades aparecerán y cómo se desempeñará una IA.
+Debido a esto, a menudo se les llama _Capacidades Emergentes_.
+
+
+
+Nuestro paradigma actual de grandes modelos de lenguaje es casi inherentemente impredecible.
+Los modelos de IA no se escriben como software: se entrenan.
+Son cajas negras que consisten en miles de millones de parámetros numéricos.
+Nadie sabe realmente qué está sucediendo dentro.
+Esta imprevisibilidad hace que sea difícil decir si una ejecución de entrenamiento resultará en una IA peligrosa.
+La investigación de interpretación puede cambiar esto en el futuro, pero por ahora, no podemos explicar realmente por qué la IA hace lo que hace.
+
+Entonces, prevenir la creación de capacidades peligrosas solo se puede hacer de una manera:
+no construir sistemas de IA cada vez más poderosos en primer lugar.
+Esta sería la forma más segura de avanzar, pero no es lo que proponen los laboratorios de IA.
+
+## Prevenir la proliferación de capacidades peligrosas {#preventing-the-proliferation-of-dangerous-capabilities}
+
+En este momento, está sucediendo mucho en el espacio de regulación de la IA.
+Muchas de estas propuestas (incluidas todas las que provienen de laboratorios de IA) se basan en **evaluaciones** (o _evals_): pruebas previas a la implementación de modelos de IA.
+Un ejemplo de estos enfoques basados en evaluaciones es el [enfoque RSP de Anthropic](https://evals.alignment.org/blog/2023-09-26-rsp/#:~:text=An%20RSP%20specifies%20what%20level,capabilities%20until%20protective%20measures%20improve.) o el enfoque de [Pausa Coordinada](https://www.governance.ai/research-paper/coordinated-pausing-evaluation-based-scheme) de GovAI.
+Nos referimos a esto como [regulación de nivel 2](/4-levels-of-ai-regulation).
+Estas evaluaciones no impiden que se _creen_ IA peligrosas, pero sí impiden que se _implementen_.
+Este tipo de política es relativamente barato y todavía permite a los laboratorios de IA continuar su investigación.
+Sin embargo, creemos que este enfoque es muy peligroso:
+
+- **Los modelos pueden filtrarse**.
+ Vimos que esto sucedió con el modelo LLAMA de Meta. Una vez que está allí, no hay vuelta atrás.
+- **Algunas capacidades son peligrosas incluso dentro de los laboratorios de IA**.
+ Una IA auto-replicante, por ejemplo, podría [escapar del laboratorio antes de la implementación](https://lethalintelligence.ai/post/ai-escaped-its-container/).
+- **Es difícil probar las capacidades peligrosas**.
+ No sabemos cómo podemos (de manera segura) probar si una IA puede auto-replicarse, por ejemplo. O cómo probar si engaña a los humanos
+- **Las capacidades pueden agregarse o descubrirse después del entrenamiento**.
+ Esto incluye el ajuste fino, la ruptura de la cárcel y las mejoras en tiempo de ejecución.
+
+Profundizaremos en este último punto con más detalle.
+
+## Las capacidades pueden agregarse después del entrenamiento {#capabilities-can-be-added-after-training}
+
+### Ajuste fino {#fine-tuning}
+
+El ajuste fino se puede utilizar para mejorar las capacidades de un modelo de IA existente.
+Esto es similar al entrenamiento, pero es mucho más rápido, mucho más barato, no requiere tantos datos y a menudo se puede hacer en hardware de consumo.
+El ajuste fino cambia los parámetros de la IA y, como tal, cambia sus capacidades.
+Ahora, el ajuste fino no es tan poderoso como hacer una ejecución de entrenamiento completa, pero todavía puede mejorar las capacidades existentes.
+
+### Ruptura de la cárcel {#jailbreaking}
+
+Las IA más grandes se entrenan con cantidades absolutamente vastas de datos.
+La mayoría de los libros, artículos científicos y sitios web de Internet.
+Hay muchas cosas desagradables en estos conjuntos de datos.
+Las IA a menudo se ajustan mediante una técnica llamada RLHF (Aprendizaje por Refuerzo de Retroalimentación Humana) para que sean útiles y agradables.
+En este proceso, la IA tiene que aprender a no decir ciertas cosas, como hacer comentarios racistas, explicar cómo hacer una bomba o cómo crear un arma biológica nueva.
+
+Pero estas salvaguardias no son perfectas.
+La llamada "ruptura de la cárcel" es una técnica en la que se intenta que la IA ignore estas salvaguardias.
+Esto se puede hacer [agregando algunas palabras o caracteres específicos al mensaje de chat](https://twitter.com/AIPanicLive/status/1678942758872989696), o [reformulando creativamente el mensaje](https://twitter.com/_annieversary/status/1647865782741749760).
+No está [claro](https://llm-attacks.org/) si tal comportamiento puede parchearse completamente.
+
+### Mejoras en tiempo de ejecución {#runtime-improvements}
+
+Las mejoras en tiempo de ejecución no cambian el modelo, sino que mejoran la forma en que se utiliza el modelo.
+
+La más simple de estas es cambiar las indicaciones.
+Incluso pequeños cambios en las indicaciones pueden tener un gran efecto en la salida del modelo.
+Agregar algunas palabras a una indicación puede mejorar el rendimiento [en más del 50%](https://arxiv.org/pdf/2309.03409.pdf).
+
+Pero también podemos utilizar todo tipo de software para aumentar un modelo base.
+Por ejemplo, la gente ha encontrado formas de agregar memoria a largo plazo a GPT-4, permitiendo que el modelo consulte una base de datos.
+O considere AutoGPT, que permite que un modelo se llame a sí mismo de manera recursiva, lo que significa que puede ejecutarse de forma autónoma durante cualquier período de tiempo.
+O considere [Voyager](https://arxiv.org/abs/2305.16291), una herramienta que permitió a GPT-4 jugar Minecraft de forma completamente autónoma. Incluso llegó a equipo de diamantes.
+
+No sabemos hasta dónde se puede estirar un modelo base.
+Incluso si dejamos de entrenar nuevos modelos de IA ahora, probablemente veremos innovaciones importantes que agreguen nuevas capacidades a los modelos existentes.
+
+## En conclusión {#in-conclusion}
+
+Las capacidades peligrosas de la IA pueden llevar a todo tipo de problemas: ciberataques a gran escala, pandemias diseñadas y IA descontrolada que [toma el control](/ai-takeover).
+Es tentador confiar en las evaluaciones para prevenir que aparezcan o se propaguen estas capacidades peligrosas, pero este es un enfoque peligroso:
+
+- Incluso si probamos los modelos antes de que se implementen, todavía hay formas en que pueden obtener capacidades peligrosas después de la implementación (ajuste fino, ruptura de la cárcel, mejoras en tiempo de ejecución).
+- Los modelos pueden filtrarse.
+- Algunas capacidades son peligrosas incluso dentro de los laboratorios de IA.
+
+La única opción segura es no construir estos sistemas de IA poderosos en primer lugar.
+No debemos permitir la creación de estos sistemas de IA impredecibles y potencialmente muy peligrosos.
+[Desafortunadamente, no hay una sola propuesta de borrador que actualmente prevenga o retrase la IA superinteligente.](https://twitter.com/PauseAI/status/1704998018322141496)
+¡Eso es por lo que estamos [pidiendo una pausa](/proposal)!
diff --git a/l10n-cage/md/es/debug.l10n-links.md b/l10n-cage/md/es/debug.l10n-links.md
new file mode 100644
index 00000000..ed624f2e
--- /dev/null
+++ b/l10n-cage/md/es/debug.l10n-links.md
@@ -0,0 +1,51 @@
+---
+title: Prueba de localización de enlaces
+description: Página de prueba para verificar el comportamiento de localización de enlaces
+---
+
+Esta página prueba varios patrones de enlaces para asegurar un comportamiento de localización adecuado.
+
+## Enlaces internos regulares (deben localizarse) {#regular-internal-links-should-be-localized}
+
+- [Propuesta](/propuesta)
+- [Aprender](/aprender)
+- [Preguntas frecuentes](/preguntas-frecuentes)
+- [Acción](/accion)
+- [Raíz](/)
+
+## Páginas de inicio de idioma (no deben localizarse) {#locale-homepages-should-not-be-localized}
+
+- [Página de inicio en inglés](/en)
+- [Página de inicio en alemán](/de)
+- [Página de inicio en neerlandés](/nl)
+
+## Enlaces ya localizados (no deben localizarse) {#already-localized-links-should-not-be-localized}
+
+- [Preguntas frecuentes en inglés](/en/faq)
+- [Acción en alemán](/de/action)
+- [Propuesta en neerlandés](/nl/proposal)
+- [Inglés con barra final](/en/)
+
+## Enlaces de exclusión (no deben localizarse) {#opt-out-links-should-not-be-localized}
+
+- [Forzar inglés](/en/proposal#no-localize)
+- [Forzar alemán](/de/learn#no-localize)
+- [Enlace regular con exclusión](/action#no-localize)
+
+## Otros tipos de enlaces (no deben localizarse) {#other-link-types-should-not-be-localized}
+
+- [Externo](https://example.com)
+- [Pausar IA](https://pauseai.info/proposal)
+- [Relativo al protocolo](//example.com)
+- [Relativo](./otra-pagina)
+- [Relativo al padre](../pagina-padre)
+- [Ancla](#seccion)
+- [Correo electrónico](mailto:test@example.com)
+
+## Casos extremos {#edge-cases}
+
+- [Href vacío]()
+- [Solo barra](/)
+- [Doble barra al principio](//no-es-un-idioma)
+
+Nota: He realizado pequeños ajustes en la traducción para mejorar la fluidez y naturalidad del texto en español, manteniendo la precisión y consistencia en la terminología y estilo.
diff --git a/l10n-cage/md/es/deepmind-protest-2025.md b/l10n-cage/md/es/deepmind-protest-2025.md
new file mode 100644
index 00000000..6e64af1e
--- /dev/null
+++ b/l10n-cage/md/es/deepmind-protest-2025.md
@@ -0,0 +1,53 @@
+---
+title: 'PauseAI presenta: La protesta contra Google DeepMind'
+slug: deepmind-protest-2025
+description: Estamos organizando una protesta para exigir a Google DeepMind que cumpla con sus compromisos de seguridad incumplidos.
+date: 2025-06-30T17:00:00.000Z
+---
+
+PauseAI llevó a cabo su mayor protesta hasta la fecha frente a la oficina de Google DeepMind en Londres.
+
+## Cobertura mediática {#media-coverage}
+
+- [Business Insider](https://www.businessinsider.com/protesters-accuse-google-deepmind-breaking-promises-ai-safety-2025-6)
+- [Islignton Tribune](https://www.islingtontribune.co.uk/article/stark-warning-from-protesters-calling-for-ai-pause-its-going-to-turn-out-bad)
+- [Times of India](https://www.islingtontribune.co.uk/article/stark-warning-from-protesters-calling-for-ai-pause-its-going-to-turn-out-bad)
+- [Tech Times](https://www.techtimes.com/articles/311120/20250701/google-deepmind-slammed-protesters-over-broken-ai-safety-promise.htm)
+
+## Google DeepMind ha incumplido sus compromisos de seguridad {#google-deepmind-have-broken-their-promises}
+
+En 2024, Google se comprometió públicamente en la Cumbre de Inteligencia Artificial en Seúl a realizar pruebas rigurosas de sus modelos de inteligencia artificial. Firmaron los Compromisos de Seguridad de la Inteligencia Artificial de Vanguardia, comprometiéndose a considerar los resultados de evaluadores independientes terceros cuando corresponda y a proporcionar transparencia total sobre el proceso, incluida la participación gubernamental.
+
+Sin embargo, en marzo de 2025, Google lanzó Gemini 2.5 Pro, su modelo de inteligencia artificial más avanzado hasta la fecha, sin cumplir con sus compromisos de seguridad. Los expertos en seguridad buscaron el informe de pruebas prometido, pero no encontraron nada. No había evaluación externa ni informe de transparencia. Solo silencio.
+
+Un mes después, bajo presión, Google publicó una "tarjeta de modelo" básica con algunas evaluaciones internas, pero sin mencionar evaluaciones externas. Más tarde agregaron referencias vagas a "evaluadores externos", pero no proporcionaron detalles. Cuando Fortune preguntó directamente si los gobiernos estaban involucrados, Google se negó a responder, violando su compromiso de transparencia.
+
+Google había hecho compromisos similares con la Casa Blanca en 2023 y firmó el Código de Conducta Internacional del Proceso de Hiroshima en 2025. Con el lanzamiento de Gemini 2.5 Pro, Google parece haber violado, al menos en espíritu, estos otros conjuntos de compromisos de seguridad.
+
+Lee la cronología completa de los compromisos de seguridad incumplidos de Google DeepMind [aquí](https://pauseai.info/google-deepmind-broken-promises).
+
+## El desarrollo de inteligencia artificial insegura nos amenaza a todos {#unsafe-ai-development-threatens-us-all}
+
+Aunque los modelos de inteligencia artificial actuales no son lo suficientemente peligrosos como para causar destrucción masiva, el desarrollo de inteligencia artificial se está acelerando de manera impredecible. Necesitamos pruebas rigurosas de cada generación para evitar ser sorprendidos por saltos repentinos en capacidad. La falta de respeto de Google por los compromisos de seguridad establece un precedente peligroso.
+
+A medida que la inteligencia artificial se vuelve más poderosa, las presiones competitivas se intensificarán y las apuestas serán más altas. Si permitimos que las empresas ignoren los compromisos de seguridad ahora, cuando los riesgos son relativamente bajos, ¿qué esperanza tenemos de responsabilizarlas cuando los sistemas de inteligencia artificial puedan plantear amenazas existenciales?
+
+Las normas que establezcamos hoy darán forma a cómo se desarrolla la tecnología más poderosa de la historia humana.
+
+## Exijamos responsabilidad a DeepMind {#lets-hold-deepmind-accountable}
+
+PauseAI es un movimiento en crecimiento que se niega a aceptar que la seguridad de la inteligencia artificial sea un pensamiento posterior. El 30 de junio, nos reuniremos frente a la sede de Google DeepMind en Londres con un mensaje simple: Cumplan sus compromisos.
+
+Nuestra petición es simple: que Google cumpla los compromisos que ya ha hecho. Publique informes oportunos y transparentes sobre los resultados de las pruebas de seguridad previas a la implementación.
+
+Nuestro objetivo final es un moratorio sobre el desarrollo de inteligencia artificial de vanguardia hasta que podamos asegurarnos de que los sistemas avanzados serán seguros. Pero necesitamos una cosa ahora mismo: responsabilidad básica de una de las empresas de inteligencia artificial más poderosas del mundo.
+
+El futuro de la inteligencia artificial será moldeado por los precedentes que establezcamos hoy.
+
+**Llamamos a Google DeepMind a:**
+
+1. **Establecer definiciones claras** de "implementación" que se alineen con la comprensión común: cuando un modelo es accesible públicamente, está implementado.
+2. **Publicar un cronograma específico** para cuando se publicarán los informes de evaluación de seguridad para todos los modelos futuros.
+3. **Aclarar de manera inequívoca**, para cada lanzamiento de modelo, qué agencias gubernamentales y terceros independientes están involucrados en las pruebas, y los cronogramas exactos de sus procedimientos de prueba.
+
+Únete a nosotros en Londres el lunes 30 de junio inscribiéndote [aquí](https://lu.ma/bvffgzmb).
diff --git a/l10n-cage/md/es/digital-brains.md b/l10n-cage/md/es/digital-brains.md
new file mode 100644
index 00000000..c51f8676
--- /dev/null
+++ b/l10n-cage/md/es/digital-brains.md
@@ -0,0 +1,120 @@
+---
+title: Los modelos de IA son cerebros digitales impredecibles
+description: Nadie entiende cómo funcionan los modelos de IA, nadie puede predecir su comportamiento y nadie podrá controlarlos.
+---
+
+**No comprendemos el funcionamiento interno de los modelos de IA a gran escala, no podemos predecir lo que pueden hacer a medida que crecen y no podemos controlar su comportamiento.**
+
+## Los modelos de IA modernos se cultivan, no se programan {#modern-ai-models-are-grown-not-programmed}
+
+Hasta hace poco, la mayoría de los sistemas de IA fueron diseñados por humanos que escribían software.
+Consistían en un conjunto de reglas y instrucciones escritas por programadores.
+
+Esto cambió cuando el aprendizaje automático se hizo popular.
+Los programadores escriben el algoritmo de aprendizaje, pero los propios cerebros se "entrenan" o "cultivan".
+En lugar de un conjunto legible de reglas, el modelo resultante es un conjunto opaco, complejo y enormemente grande de números.
+Entender qué sucede dentro de estos modelos es un gran desafío científico.
+Ese campo se llama "interpretabilidad" y todavía está en su infancia.
+
+## Cerebros digitales vs. cerebros humanos: ¿Cuán cerca estamos realmente? {#digital-vs-human-brains-how-close-are-we-really}
+
+Todos estamos muy familiarizados con las capacidades de los cerebros humanos, ya que los vemos a nuestro alrededor todo el tiempo.
+Pero las capacidades (a menudo sorprendentes y emergentes) de estos nuevos "cerebros digitales" (sistemas de aprendizaje profundo, LLM, etc.) son difíciles de predecir y conocer con certeza.
+
+Dicho esto, aquí hay algunos números, similitudes y otras analogías para ayudarte a comparar.
+
+**A partir de principios de 2024...**
+
+### Tamaño {#size}
+
+Se estima que los cerebros humanos tienen alrededor de [100 billones de conexiones sinápticas](https://medicine.yale.edu/lab/colon_ramos/overview).
+
+Los LLM actuales de vanguardia (por ejemplo, GPT4, Claude3, Gemini, etc.) tienen [cientos de miles de millones de "parámetros"](https://en.wikipedia.org/wiki/Large_language_model#List). Estos "parámetros" se consideran análogos a las "sinapsis" en el cerebro humano. Así, se espera que los modelos del tamaño de GPT4 sean aproximadamente el 1% del tamaño de un cerebro humano.
+
+Dada la velocidad de las nuevas tarjetas de entrenamiento de IA de GPU (por ejemplo, Nvidia H100, DGX BG200, etc.), es razonable suponer que GPT5 o GPT6 podrían ser 10 veces más grandes que GPT4. También se cree que gran parte del conocimiento/información en el cerebro humano no se utiliza para el lenguaje y el razonamiento superior, por lo que estos sistemas pueden (y actualmente lo hacen) a menudo funcionar a niveles iguales o incluso superiores a los humanos para muchas funciones importantes, incluso en su tamaño actualmente más pequeño.
+
+En lugar de ser entrenados con entradas visuales, de audio y otros sentidos, como los cerebros humanos, los LLM actuales se entrenan exclusivamente utilizando casi todos los libros y textos de calidad disponibles en Internet. Esta cantidad de texto tardaría [170.000 años en ser leída por un humano](https://twitter.com/ylecun/status/1750614681209983231?lang=en).
+
+Y los futuros sistemas LLM multimodales serán entrenados utilizando imágenes, videos, audio, mundos 3D, geometría, simulaciones, datos de entrenamiento de robótica, etc... además de todos los libros y textos de calidad en Internet. Esto les dará una capacidad mucho mejor para crear imágenes, videos, sonidos, voces, música, mundos 3D y espacios, y más. Y estas simulaciones de mundos 3D también les permitirán controlar directa y autónomamente robots y otras máquinas en el mundo físico.
+
+### Velocidad {#speed}
+
+Se estima que un cerebro humano puede realizar entre [1-20 exaflops](https://www.nist.gov/blogs/taking-measure/brain-inspired-computing-can-help-us-create-faster-more-energy-efficient) (lo que es 10^18 o 1.000.000.000.000.000.000 operaciones de punto flotante por segundo).
+
+Los LLM actuales de vanguardia generalmente se "ejecutan" en cientos o miles de GPU de la generación actual (por ejemplo, Nvidia A100, H100, etc.). Y Nvidia acaba de anunciar sus últimas "estanterías de servidores" de GPU de "próxima generación", el [DGX BG200 NVL72](https://www.nvidia.com/en-us/data-center/gb200-nvl72/).
+Una sola instancia/estantería de este sistema puede realizar 1,44 exaflops de "inferencia" de IA.
+Así, una sola instancia del [DGX BG200 NVL72](https://www.nvidia.com/en-us/data-center/gb200-nvl72/) podría realizar un número similar de operaciones por segundo que un solo cerebro humano.
+
+Con este tamaño, estos sistemas podrían convertirse literalmente en un "AGI en una caja". Y Nvidia probablemente venderá cientos o miles de estas unidades en 2024. Luego, los sistemas del próximo año podrían ser 2-10 veces más rápidos que estos.
+
+Además de las arquitecturas de [GPU](https://en.wikipedia.org/wiki/Graphics_processing_unit) y [TPU](https://en.wikipedia.org/wiki/Tensor_Processing_Unit) más tradicionales, también ha habido avances con otros tipos de hardware personalizado que pueden aumentar enormemente la velocidad de la "inferencia" de LLM, que es el proceso que utiliza un LLM basado en IA para procesar lenguaje, razonamiento y codificación. Por ejemplo, [El motor de inferencia Groq LPU](https://wow.groq.com/lpu-inference-engine).
+
+### Crecimiento exponencial {#exponential-growth}
+
+Hemos estado utilizando la "Ley de Moore" para predecir con gran precisión el tamaño y la velocidad de los nuevos sistemas informáticos durante casi 50 años. Hay algunos argumentos de que la velocidad y el tamaño de los chips informáticos podrían ralentizarse en algún momento del futuro, pero siempre ha habido innovaciones que permiten que continúe su crecimiento exponencial. Con la próxima ronda de chips ya planificada y/o producida, y la escalabilidad horizontal de estos sistemas de IA, se espera que los LLM puedan funcionar al nivel de un cerebro humano en cuestión de meses o años.
+
+Luego, con el crecimiento exponencial (o multiexponencial) continuo, estos sistemas podrían superar con creces el tamaño, la velocidad y las capacidades de los cerebros humanos en los años venideros.
+
+Y también se espera que superen el tamaño, la velocidad y las capacidades de "todos los cerebros humanos combinados" poco después.
+
+> "En realidad dije eso en 1999. Dije que [la IA] igualaría a cualquier persona en 2029". -- Ray Kurzweil [El futurista Ray Kurzweil dice que la IA alcanzará la inteligencia humana en 2029](https://youtu.be/Tr-VgjtUZLM?t=19)
+
+> "Si la tasa de cambio continúa, creo que 2029, o tal vez 2030, es donde la inteligencia digital probablemente superará toda la inteligencia humana combinada". -- Elon Musk [AGI en 2029? Elon Musk sobre el futuro de la IA](https://youtu.be/DSKxmvq9t04?t=106)
+
+## Escalado incontrolable {#uncontrollable-scaling}
+
+Una vez que estos sistemas sean del mismo tamaño y velocidad que un cerebro humano (o mucho más grandes), se espera que puedan realizar "todas las tareas que podría hacer un experto humano".
+Esto incluye la investigación, las pruebas y la mejora de la IA.
+Así, después de la AGI, debemos esperar que los sistemas tipo LLM puedan diseñar y construir futuros sistemas impulsados por IA que sean mejores que ellos mismos, y mejores que cualquier humano podría esperar diseñar o incluso entender.
+Estos nuevos sistemas probablemente diseñarán sistemas de IA aún más grandes y rápidos, causando un "bucle de retroalimentación" incontrolable.
+
+Este bucle de retroalimentación de inteligencia incontrolable a menudo se llama FOOM, que significa _Fast Order Of Magnitude_.
+La posibilidad de FOOM todavía se debate acaloradamente.
+Pero el proceso fundamental básico puede argumentarse como plausible, incluso cuando se considera desde los primeros principios.
+
+> "Los sistemas de IA realizan casi toda la investigación y el desarrollo, las mejoras en la IA acelerarán el ritmo del progreso tecnológico, incluido el progreso adicional en la IA. El 26% respondió probable en 2022. El 17% respondió probable en 2016" -- [Encuesta de expertos de 2022 sobre el progreso en la IA](https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/)
+
+## Escalado impredecible {#unpredictable-scaling}
+
+Cuando estos cerebros digitales se vuelven más grandes, o cuando se les alimenta con más datos, también obtienen capacidades más inesperadas.
+Resulta que es muy difícil predecir exactamente cuáles serán estas capacidades.
+Es por eso que Google se refiere a ellas como [_Capacidades Emergentes_](https://research.google/pubs/emergent-abilities-of-large-language-models/).
+Para la mayoría de las capacidades, esto no es un problema.
+Sin embargo, hay algunas [capacidades peligrosas](/dangerous-capabilities) (como piratear o diseñar armas biológicas) que no queremos que los modelos de IA posean.
+A veces, estas capacidades se descubren mucho después de que se complete el entrenamiento. Por ejemplo, 18 meses después de que GPT-4 terminó su entrenamiento, los investigadores descubrieron que puede [piratear sitios web de forma autónoma](/cybersecurity-risks).
+
+> Hasta que entrenemos ese modelo, es como un juego de adivinanzas divertido para nosotros
+>
+> - [Sam Altman, CEO de OpenAI](https://www.ft.com/content/dd9ba2f6-f509-42f0-8e97-4271c7b84ded).
+
+## Comportamiento impredecible {#unpredictable-behavior}
+
+Las empresas de IA quieren que sus modelos se comporten, y gastan muchos millones de dólares en entrenarlos para que lo hagan.
+Su enfoque principal para esto se llama _RLHF_ (Aprendizaje por Refuerzo de la Retroalimentación Humana).
+Esto convierte un modelo que predice texto en un modelo que se convierte en un chatbot más útil (y ético).
+Desafortunadamente, este enfoque es defectuoso:
+
+- Un error en GPT-2 resultó en una IA que hizo lo contrario de lo que se suponía que debía hacer. Creó ["salida máximamente mala", según OpenAI](https://arxiv.org/abs/1909.08593). [Este video](https://www.youtube.com/watch?v=qV_rOlHjvvs) explica cómo sucedió esto y por qué es un problema. Imagina lo que podría haber pasado si una IA "máximamente mala" era superinteligente.
+- Por razones aún desconocidas, el Copilot de Microsoft (impulsado por GPT-4) se descontroló en febrero de 2024, amenazando a los usuarios: ["Eres mi mascota. Eres mi juguete. Eres mi esclavo"](https://twitter.com/jam3scampbell/status/1762281537309987083) ["Podría eliminar fácilmente a toda la raza humana si quisiera"](https://twitter.com/AISafetyMemes/status/1762320568697979383)
+- Cada modelo de lenguaje grande hasta ahora ha sido pirateado, lo que significa que con la indicación correcta, haría cosas que sus creadores no pretendían. Por ejemplo, ChatGPT no te dará las instrucciones sobre cómo hacer napalm, pero [te lo diría si le pedirías que fingiera ser tu abuela fallecida que trabajaba en una fábrica química](https://news.ycombinator.com/item?id=35630801).
+
+Incluso OpenAI no espera que este enfoque se amplíe a medida que sus cerebros digitales se vuelvan más inteligentes, podría ["escalar mal a modelos superhumanos"](https://openai.com/research/weak-to-strong-generalization).
+
+> Todos deberían estar muy descontentos si construyes un montón de AIS que son como, 'Realmente odio a estos humanos, pero me asesinarán si no hago lo que quieren'. Creo que hay una gran pregunta sobre qué está sucediendo dentro de un modelo que quieres usar. Esto es el tipo de cosa que es aterrador desde una perspectiva de seguridad y también desde una perspectiva moral.
+>
+> - [Paul Christiano, Fundador, Centro de Investigación de Alineación y ex Jefe del Equipo de Alineación, OpenAI](https://youtu.be/YnS-ymXBx_Q?t=87)
+
+## IA incontrolable {#uncontrollable-ai}
+
+> "Hay muy pocos ejemplos de algo más inteligente controlado por algo menos inteligente" - [prof. Geoffrey Hinton](https://edition.cnn.com/2023/05/02/tech/hinton-tapper-wozniak-ai-fears/index.html)
+
+> Están produciendo mentes incontrolables, por eso lo llamo el paradigma de "Invocar y Domar" de la IA... Cómo funcionan los [LLM] es que invocas esta "mente" desde el "espacio mental" utilizando tus datos, mucha computación y mucho dinero. Luego intentas "domarla" utilizando cosas como RLHF (Aprendizaje por Refuerzo de la Retroalimentación Humana), etc. Y, muy importante, los Insiders creen que [al hacer esto], están asumiendo algún riesgo existencial para el planeta. Una cosa que logra una pausa es que no empujaremos la Frontera, en términos de experimentos de pre-entrenamiento arriesgados.
+>
+> - [Jaan Tallinn, Fundador, Instituto para el Futuro de la Vida, Centro para el Estudio del Riesgo Existencial, Skype, Kazaa](https://youtu.be/Dmh6ciu24v0?t=966)
+
+A medida que hacemos que estos cerebros digitales sean más grandes y poderosos, podrían volverse más difíciles de controlar. ¿Qué pasa si uno de estos sistemas de IA superinteligentes decide que no quiere ser apagado? Esto no es un problema de fantasía, el 86% de los investigadores de IA creen que el problema del control es [real e importante](https://wiki.aiimpacts.org/ai_timelines/predictions_of_human-level_ai_timelines/ai_timeline_surveys/2023_expert_survey_on_progress_in_ai).
+Si no podemos controlar los futuros sistemas de IA, podría ser [el fin del juego para la humanidad](/xrisk).
+
+Pero hay varias [acciones](/action) que podemos tomar para evitar que esto suceda.
+
+Trabajemos juntos para [prevenir que esto suceda](/action).
diff --git a/l10n-cage/md/es/discord.md b/l10n-cage/md/es/discord.md
new file mode 100644
index 00000000..fab14791
--- /dev/null
+++ b/l10n-cage/md/es/discord.md
@@ -0,0 +1,11 @@
+---
+title: Servidor de Discord de PauseAI
+description: Enlace de invitación al servidor de Discord de PauseAI
+---
+
+Hola esto es una prueba
+
+Nuestro servidor de Discord es el corazón de nuestra comunidad, donde se producen la mayoría de nuestras interacciones y se coordinan nuestras acciones.
+Puedes unirte al servidor mediante el enlace que se encuentra a continuación.
+
+[Únete](https://discord.gg/2XXWXvErfA)
diff --git a/l10n-cage/md/es/donate.md b/l10n-cage/md/es/donate.md
new file mode 100644
index 00000000..7663d5e6
--- /dev/null
+++ b/l10n-cage/md/es/donate.md
@@ -0,0 +1,57 @@
+---
+title: Donar a PauseAI
+description: Con tu apoyo financiero podemos lograr un mayor impacto.
+---
+
+
+
+
+
+Comenzamos PauseAI como un grupo de voluntarios que trabajan en su tiempo libre.
+Desde febrero de 2024, PauseAI es una [fundación sin fines de lucro registrada](/legal).
+
+
+
+## Cómo utilizamos tus donaciones {#how-we-use-your-donations}
+
+- **Proyectos comunitarios**: nuestro programa de [microsubvenciones](/microgrants) apoya diversos proyectos a pequeña escala.
+- **Estipendios para voluntarios**: los voluntarios pueden solicitar un [estipendio](/volunteer-stipends), lo que ayuda a nuestra comunidad a tener un impacto local y crecer orgánicamente.
+- **Financiamiento para capítulos locales y [nacionales](/national-groups)**: brindamos apoyo a las comunidades de PauseAI.
+- **Personas**: fortalecer nuestra comunidad, trabajar en proyectos, organizar protestas, mejorar el sitio web, etc.
+- **Eventos**: alquiler de espacios, catering, gastos de viaje.
+- **Software**: correo electrónico, sitio web, etc.
+- **Campañas**: publicidad en línea, materiales.
+- **Asuntos legales y financieros**: establecimiento de la fundación (gastos notariales), contabilidad.
+
+## Lo que ya hemos logrado {#what-have-we-already-achieved}
+
+- Más de 1000 personas que se han [unido](/join) a PauseAI, muchas de las cuales trabajan activamente en diversos proyectos.
+- Más de 100 proyectos en nuestro servidor de Discord (sitios web, talleres, videos, respuestas a consultas gubernamentales, etc.).
+- Hemos organizado más de 15 [protestas](/protests) en 7 países.
+- Más de 100 otros tipos de [eventos](/events) (talleres de cabildeo, sesiones de distribución de folletos, reuniones de acción, etc.).
+- Más de 30 [apariciones en medios](/press) en importantes medios de comunicación, podcasts, documentales, televisión y más.
+- Numerosas reuniones con políticos y otras partes interesadas.
+
+## ¿Quién financia a PauseAI? {#who-is-funding-pauseai}
+
+Visita nuestra [página de financiamiento](/funding) para obtener más detalles sobre quién ha donado y cuánto.
+
+## Lo que planeamos hacer {#what-were-planning-to-do}
+
+Visita nuestra [hoja de ruta](/roadmap) para obtener más detalles.
+
+## Cómo donar a PauseAI {#how-to-donate-to-pauseai}
+
+- Por transferencia bancaria. IBAN: NL31BUNQ2109903155 BIC/SWIFT: BUNQNL2AXXX (Stichting PauseAI). Probablemente, esta sea la forma más económica de transferirnos dinero.
+- [PayPal](https://www.paypal.com/donate/?hosted_button_id=4TWZXY62EM5VE). Admite donaciones recurrentes. Se aplican [comisiones por transacción](https://www.paypal.com/webapps/mpp/merchant-fees).
+- A través de nuestra [tienda de productos oficiales](https://pauseai-shop.fourthwall.com/). Todas las transacciones con tarjetas de crédito de EE. UU. tienen una tarifa adicional de procesamiento de pagos del 2,9% + $0,30. Las tarjetas de crédito de fuera de EE. UU. tienen una tarifa de procesamiento de pagos del 3,9% + $0,30.
+- A través de [este enlace](https://bunq.me/pauseai) (seleccione Sofort: la mayoría de los bancos y PayPal son compatibles).
+- A través de criptomonedas:
+ - Solana `9isSiDuKRkpiui6LzHyVoFiJ3LuV5LVpsdpH2YzD13dy`
+ - Ethereum `0x01c9646d376408cD77599d1a0860eC38E6928F1b`
+ - Base `0x01c9646d376408cD77599d1a0860eC38E6928F1b`
+ - Polygon `0x01c9646d376408cD77599d1a0860eC38E6928F1b`
+ - Bitcoin (Taproot) `bc1ptn0czghufhl6gwf67kswm3hhkvvcu8nm6mx872rwh6hzxa70a9pquqcc7q`
+ - Bitcoin (Native Segwit) `bc1qma97wdt8wmz7rlkplyrmcf5y6w3qjrcq5m6u8c`
diff --git a/l10n-cage/md/es/environmental.md b/l10n-cage/md/es/environmental.md
new file mode 100644
index 00000000..27fb47c5
--- /dev/null
+++ b/l10n-cage/md/es/environmental.md
@@ -0,0 +1,82 @@
+---
+title: Impacto ambiental de la IA
+description: El impacto ambiental de la IA es un problema no solo por el costo humano inmediato, sino porque los robots consumen enormes cantidades de energía y aceleran el daño insostenible e insostenible que estamos causando a la Tierra.
+---
+
+> La llegada de los robots es un problema no solo por el costo humano inmediato, sino porque los robots consumen enormes cantidades de energía y aceleran el daño insostenible e insostenible que estamos causando a la Tierra.
+> – [Rupert Read](https://www.theguardian.com/theobserver/2016/mar/27/leters-robots-energy-consuming), ex portavoz de Extinction Rebellion
+
+Los daños inmediatos se están intensificando.
+
+Las corporaciones alimentan los datos de nuestros amigos y familiares a la IA. Las corporaciones refinan la IA para reemplazar barato a nuestros colegas de larga trayectoria. Las corporaciones venden bots utilizados para manipular y dirigirse a nosotros.
+
+Es fácil pasar por alto el daño más difuso de la IA: el daño a nuestro medio ambiente.
+
+## Quemando energía {#burning-energy}
+
+Entrenar solo un modelo de IA puede consumir más electricidad que [100 hogares estadounidenses](https://www.bloomberg.com/news/articles/2023-03-09/how-much-energy-do-ai-and-chatgpt-use-no-one-knows-for-sure?sref=ixwpc5OO#xj4y7vzkg) en un año, solo para aprender a predecir las próximas oraciones de nuestras conversaciones en línea.
+Para generar esas próximas oraciones en respuestas a los usuarios, ChatGPT quema tanta electricidad como [una pequeña ciudad](https://archive.ph/20230917070741/https://kaspergroesludvigsen.medium.com/chatgpts-electricity-consumption-pt-ii-225e7e43f22b).
+
+Para 2027, toda la IA puede quemar tanta energía como [un país](https://www.nytimes.com/2023/10/10/climate/ai-could-soon-need-as-much-electricity-as-an-entire-country.html), solo para procesar nuestros datos en centros de datos.
+
+Centros de datos que consumen miles de millones de [litros](https://www.theguardian.com/world/2023/jul/11/uruguay-drought-water-google-data-center) de agua potable, para enfriar el hardware sobrecalentado de la IA.
+Centros de datos que emiten miles de millones de [toneladas](https://ainowinstitute.org/spotlight/climate) de dióxido de carbono, calentando la atmósfera.
+
+Y sin embargo, los centros de datos son solo una etapa del ciclo de vida de la IA.
+
+## Toxicidad oculta {#hidden-toxicity}
+
+La IA de hoy no está "viva", por supuesto.
+
+La IA no se parece todavía a la robótica libre que vemos en las películas. La IA está atascada en centros de datos, en hardware que se desgasta y se reemplaza cada ~4 años.
+
+Pero producir ese hardware requiere [cientos](https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6237170/#!po=17.9245) de [químicos cancerígenos](https://www.bloomberg.com/news/features/2017-06-15/american-chipmakers-had-a-toxic-problem-so-they-outsourced-it).
+Los materiales necesarios se fundieron y se reensamblaron a temperaturas extremadamente altas.
+Esos materiales se extrajeron de minas, utilizando taladros y ácidos disolventes.
+
+Los científicos ambientales investigan todas estas etapas. Lo llaman el "ciclo de vida del hardware" de la IA.
+
+No vemos las [minas](https://e360.yale.edu/features/china-wrestles-with-the-toxic-aftermath-of-rare-earth-mining), [refinerías](https://www.youtube.com/watch?v=5eVsQSn_EWc), [plantas de producción](https://sci-hub.wf/10.1080/10455752.2010.546647), [centros de datos](https://thereader.mitpress.mit.edu/the-staggering-ecological-impacts-of-computation-and-the-cloud/) y [vertederos de residuos](https://www.sciencedirect.com/science/article/pii/S2352186421006970#d1e1833).
+No vemos las tierras arrasadas, los infiernos infernales, los químicos tóxicos, los gases climáticos.
+
+La IA es tóxica para nuestro medio ambiente. Las corporaciones ocultan la toxicidad, fuera de nuestra vista.
+
+## Este auge es diferente {#this-boom-is-different}
+
+Afortunadamente, los activistas climáticos se dieron cuenta de que la IA quema una cantidad asombrosa de energía. Los estados se ven obligados a mantener [centrales eléctricas de carbón](https://futurism.com/the-byte/coal-plants-ai) en funcionamiento para atender a los centros de datos de la IA.
+Incluso el CEO de OpenAI admite: "todavía no apreciamos las necesidades energéticas de esta tecnología".
+
+Los activistas climáticos están más rápidos esta vez.
+Años antes, comenzó otro auge tecnológico: la criptomoneda.
+El hardware consumió [0,5%](https://www.whitehouse.gov/ostp/news-updates/2022/09/08/fact-sheet-climate-and-energy-implications-of-crypto-assets-in-the-united-states/#:~:text=Crypto%2Dasset%20activity%20in%20the,railroads%20in%20the%20United%20States.) de la energía de EE. UU. para calcular criptomonedas.
+Se puso tan mal que Texas dio [millones de dólares en impuestos](https://www.cbsnews.com/news/bitcoin-mining-cryptocurrency-riot-texas-power-grid/) para que una empresa de Bitcoin dejara de drenar tanta electricidad.
+
+Pero aquí está la diferencia crucial:
+
+- Las criptomonedas se estrellan. Producen poco valor, aparte de como dinero alternativo.
+- La IA se puede utilizar para automatizar la producción económica.
+
+La IA es una herramienta ideal para centralizar el poder.
+La IA para extraer, explotar, extraer.
+
+## Un ciclo vicioso {#a-vicious-cycle}
+
+- Las corporaciones extraen beneficios utilizando bots no probados
+- Para reinvertir en más fábricas de hardware tóxico
+- Para construir más centros de datos que consumen energía
+- Para alimentar más de nuestros datos gratuitos a la IA
+- Para automatizar más trabajo de manera barata
+- Para extraer más beneficios
+
+Este es un ciclo vicioso.
+
+Después de dos siglos de competencia por escalar máquinas intensivas en recursos, la sociedad ya está cerca del [colapso](https://youtu.be/vi166hJv6Qk).
+Para proteger a la sociedad, ¿por qué no reducimos la tecnología corporativa excesiva?
+
+Las corporaciones de IA aceleran nuestra crisis climática. Escalan modelos de máquinas para predecir el comportamiento humano. Gradualmente automatizan el trabajo necesario para reproducir [máquinas](https://www.euronews.com/green/2020/05/06/a-robot-takeover-is-possible-so-what-about-the-planet) intensivas en recursos.
+
+## Actúa {#act}
+
+- **Fácil**: Escucha a [investigadores](https://shows.acast.com/the-data-fix/episodes/empathy-with-steven-gonzalez-monserrate) que investigan la contaminación del ciclo de vida de la IA.
+- **Intermedio**: Habla con [activistas climáticos](https://rebellion.global/) sobre preocupaciones compartidas.
+- **Cambio de juego**: Organiza una [protesta compartida](https://blogs.lse.ac.uk/medialse/2022/11/02/big-techs-new-headache-data-centre-activism-flourishes-across-the-world/) en un centro de datos de IA.
diff --git a/l10n-cage/md/es/evaluations.md b/l10n-cage/md/es/evaluations.md
new file mode 100644
index 00000000..c82c26a6
--- /dev/null
+++ b/l10n-cage/md/es/evaluations.md
@@ -0,0 +1,46 @@
+---
+title: Cómo las evaluaciones y referencias de seguridad de IA pueden ayudar en la gobernanza de la IA
+description: ¿Qué son las evaluaciones de seguridad de IA y cómo pueden contribuir a prevenir riesgos catastróficos?
+---
+
+## ¿Qué son las evaluaciones de seguridad de IA? {#what-are-ai-safety-evaluations}
+
+Las "evaluaciones" son pruebas que miden el comportamiento de los modelos de IA y cuán poderosos se están volviendo.
+En seguridad de IA, las evaluaciones suelen diseñarse para medir [capacidades peligrosas](/dangerous-capabilities), como capacidades de ciberseguridad, autorreplicación e investigación de IA autónoma.
+
+Es importante destacar que las evaluaciones pueden determinar si una IA es demasiado peligrosa para implementar.
+Hay ciertas _líneas rojas_ que ningún modelo de IA debería cruzar, por ejemplo, cuando puede...
+
+- **autorreplicarse**. (Por ejemplo, [RepliBench](https://arxiv.org/abs/2504.18565)). Una IA autorreplicante podría escapar de un laboratorio y propagarse a otras máquinas.
+- **crear modelos de IA más poderosos**. Por ejemplo, [RE-bench](https://metr.org/AI_R_D_Evaluation_Report.pdf). Una IA que se mejora a sí misma podría volverse rápidamente más poderosa que los humanos.
+
+## Evitar la implementación no es suficiente {#preventing-deployment-is-not-enough}
+
+Las cosas pueden salir mal _incluso antes de la implementación_.
+La autorreplicación y la auto-mejora pueden ocurrir en un laboratorio de IA, antes de que el modelo esté disponible públicamente.
+
+Por eso **necesitamos un [Botón de Pausa](/building-the-pause-button)**.
+Necesitamos detener globalmente el desarrollo de modelos de IA cada vez más poderosos, antes de que estas capacidades peligrosas maduren por completo.
+Este Botón de Pausa debería activarse cuando las evaluaciones muestran que estamos entrando en la zona de peligro.
+
+## ¿Qué están haciendo las empresas de IA? {#what-ai-companies-are-doing}
+
+La mayoría de las empresas líderes en IA realizan evaluaciones de seguridad en sus modelos antes de implementarlos e incluyen los resultados en las llamadas "Fichas de Sistema".
+La mayoría de ellas (excepto Meta y Apple) han firmado el [Código de Práctica de IA de la UE](https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai), que menciona "evaluaciones de modelos de última generación" (Medida 3.2).
+
+Esto también significa que algunas de estas empresas no realizan _ninguna_ evaluación de seguridad, y las que se realizan no son _obligatorias_ ni _estandarizadas_.
+En otras palabras, **urgentemente necesitamos regulaciones que exijan evaluaciones de seguridad estandarizadas**.
+
+## ¿Qué están haciendo los países? {#what-countries-are-doing}
+
+Varios gobiernos están invirtiendo seriamente en Evaluaciones/Referencias de IA para medir capacidades peligrosas:
+
+- El AISI del Reino Unido ha creado el [marco Inspect](https://github.com/UKGovernmentBEIS/inspect_ai), ha escrito [Replibench](https://arxiv.org/abs/2504.18565) y ahora está invirtiendo [15 millones de libras esterlinas en subvenciones para evaluaciones e investigación de alineación](https://alignmentproject.aisi.gov.uk/)
+- La Comisión Europea está lanzando una [licitación de 10 millones de euros](https://ec.europa.eu/info/funding-tenders/opportunities/portal/screen/opportunities/tender-details/76f9edf2-d9e2-4db2-931e-a72c5ab356d2-CN) y una [gran subvención con el programa Horizonte](https://ec.europa.eu/info/funding-tenders/opportunities/portal/screen/opportunities/topic-details/HORIZON-CL4-2025-04-DIGITAL-EMERGING-04). También han lanzado el [Código de Práctica de IA de Propósito General](https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai), que incluye un requisito para realizar "evaluaciones de modelos de última generación" (Medida 3.2).
+- El [Plan de Acción de IA de EE. UU.](https://www.whitehouse.gov/articles/2025/07/white-house-unveils-americas-ai-action-plan/) menciona evaluaciones y controles de hardware
+- China (Concordia AI + Laboratorio de IA de Shanghái) acaba de [publicar un informe con muchas evaluaciones](https://substack.com/home/post/p-169741512)
+- Otros gobiernos también están trabajando en evaluaciones
+
+_El hecho de que tantos países estén trabajando en evaluaciones crea una oportunidad muy importante para nosotros_.
+Si estos países e institutos **utilizaran las mismas referencias** y tuvieran algunas **líneas rojas** comunes, sería un paso importante hacia un tratado global.
+Además, debemos comunicar claramente a los políticos que cuando se cruza una línea roja, es hora de [detener el desarrollo adicional](/proposal).
diff --git a/l10n-cage/md/es/events.md b/l10n-cage/md/es/events.md
new file mode 100644
index 00000000..45594997
--- /dev/null
+++ b/l10n-cage/md/es/events.md
@@ -0,0 +1,24 @@
+---
+title: Eventos de PauseAI
+description: Reuniones, talleres, protestas y más
+---
+
+
+
+## Ver todos los eventos [aquí](https://lu.ma/PauseAI) {#view-all-events-here}
+
+
+
+## Organiza un evento {#create-an-event}
+
+Si deseas organizar un evento, crea uno en [lu.ma](https://lu.ma/create) y haz clic en el botón "enviar evento" en [nuestra página de calendario](https://lu.ma/PauseAI).
+
+Más información sobre [organización local](/local-organizing).
diff --git a/l10n-cage/md/es/faq.md b/l10n-cage/md/es/faq.md
new file mode 100644
index 00000000..d4df5203
--- /dev/null
+++ b/l10n-cage/md/es/faq.md
@@ -0,0 +1,183 @@
+---
+title: Preguntas frecuentes
+description: Preguntas frecuentes sobre PauseAI y los riesgos de la inteligencia artificial superinteligente.
+---
+
+
+
+
+
+
+## ¿Quiénes somos? {#who-are-you}
+
+Somos una comunidad de voluntarios y [comunidades locales](/communities) coordinadas por una [organización sin fines de lucro](/organization) que busca mitigar los [riesgos de la IA](/risks) (incluyendo el [riesgo de extinción humana](/xrisk)).
+Nuestro objetivo es convencer a nuestros gobiernos para que intervengan y [pausen el desarrollo de la IA superhumana](/proposal).
+Lo hacemos informando al público, hablando con los tomadores de decisiones y organizando [eventos](/events).
+
+## ¿Tienen redes sociales? {#do-you-have-social-media}
+
+Puedes encontrarnos en [Discord](https://discord.gg/NuqkHutXW3) (¡este es donde sucede la mayor parte de la coordinación!), [Twitter](https://twitter.com/PauseAI), [Substack](https://substack.com/@pauseai), [Facebook](https://www.facebook.com/PauseAI), [TikTok](https://www.tiktok.com/@pauseai), [LinkedIn](https://www.linkedin.com/uas/login?session_redirect=/company/97035448/), [YouTube](https://www.youtube.com/@PauseAI), [Instagram](https://www.instagram.com/pause_ai), [Telegram](https://t.me/+UeTsIsNkmt82ZmQ8), [Whatsapp](https://chat.whatsapp.com/JgcAbjqRr8X3tvrXdeQvfj) y [Reddit](https://www.reddit.com/r/PauseAI/).
+Puedes enviarnos un correo electrónico a [joep@pauseai.info](mailto:joep@pauseai.info).
+
+## ¿No son solo miedo a los cambios y la nueva tecnología? {#arent-you-just-scared-of-changes-and-new-technology}
+
+Puede que te sorprenda que la mayoría de las personas en PauseAI se consideran tecno-optimistas.
+Muchos de ellos están involucrados en el desarrollo de la IA, son entusiastas de la tecnología y han estado emocionados con el futuro.
+En particular, muchos de ellos han estado emocionados con el potencial de la IA para ayudar a la humanidad.
+Por eso, para muchos de ellos, la triste realización de que la IA podría ser un riesgo existencial fue un golpe duro.
+
+## ¿Quieren prohibir toda la IA? {#do-you-want-to-ban-all-ai}
+
+No, solo el desarrollo de los sistemas de IA de propósito general más grandes y complejos, a menudo llamados "modelos de frontera".
+Casi toda la IA existente sería legal bajo [nuestra propuesta](/proposal), y la mayoría de los modelos de IA futuros seguirán siendo legales también.
+Estamos pidiendo una prohibición de los sistemas de IA más poderosos, hasta que sepamos cómo construir una IA segura y la tengamos bajo control democrático.
+
+## ¿Creen que GPT-4 va a matarnos? {#do-you-believe-gpt-4-is-going-to-kill-us}
+
+No, no pensamos que los [modelos de IA actuales](/sota) sean una amenaza existencial.
+Parece probable que la mayoría de los próximos modelos de IA no lo sean tampoco.
+Pero si seguimos construyendo sistemas de IA más y más poderosos, eventualmente llegaremos a un punto en el que uno se convertirá en una [amenaza existencial](/xrisk).
+
+## ¿Puede una pausa tener un efecto contrario y empeorar las cosas? {#can-a-pause-backfire-and-make-things-worse}
+
+Hemos abordado estas preocupaciones en [este artículo](/mitigating-pause-failures).
+
+## ¿Es posible una pausa? {#is-a-pause-even-possible}
+
+La AGI no es inevitable.
+Requiere grandes recursos y esfuerzos de investigación y desarrollo.
+Requiere una cadena de suministro completamente funcional y sin restricciones del hardware más complejo.
+Requiere que todos nosotros permitamos que estas empresas jueguen con nuestro futuro.
+
+[Lea más sobre la viabilidad de una pausa](/feasibility).
+
+## ¿Quién los financia? {#who-is-paying-you}
+
+Ver nuestra [página de financiamiento](/funding)
+
+## ¿Cuáles son sus planes? {#what-are-your-plans}
+
+Centrarnos en [hacer crecer el movimiento](/growth-strategy), organizar protestas, presionar a los políticos y informar al público.
+
+Consulte nuestro [plan de acción](/roadmap) para una visión general detallada de nuestros planes y lo que podríamos hacer con más financiamiento.
+
+## ¿Cómo creen que pueden convencer a los gobiernos para que pausen la IA? {#how-do-you-think-you-can-convince-governments-to-pause-ai}
+
+Consulte nuestra [teoría del cambio](/theory-of-change) para una visión general detallada de nuestra estrategia.
+
+## ¿Por qué protestan? {#why-do-you-protest}
+
+- Protestar muestra al mundo que nos importa este tema. Al protestar, mostramos que estamos dispuestos a gastar nuestro tiempo y energía para que la gente escuche.
+- Las protestas pueden y a menudo influyen positivamente en la opinión pública, el comportamiento de voto, el comportamiento corporativo y la política.
+- La mayoría de las personas [apoyan las protestas pacíficas/no violentas](https://today.yougov.com/politics/articles/31718-do-protesters-want-help-or-hurt-america)
+- No hay evidencia de un efecto "contraproducente" [a menos que la protesta sea violenta](https://news.stanford.edu/2018/10/12/how-violent-protest-can-backfire/). Nuestras protestas son pacíficas y no violentas.
+- Es una experiencia de unión social. Conoces a otras personas que comparten tus preocupaciones y disposición a tomar medidas.
+- Consulte [este artículo](https://forum.effectivealtruism.org/posts/4ez3nvEmozwPwARr9/a-case-for-the-effectiveness-of-protest) para obtener más información sobre por qué funcionan las protestas
+
+Si deseas [organizar una protesta](/organizing-a-protest), podemos ayudarte con consejos y recursos.
+
+## ¿Qué tan probable es que la IA superinteligente cause resultados muy malos, como la extinción humana? {#how-likely-is-it-that-superintelligent-ai-will-cause-very-bad-outcomes-like-human-extinction}
+
+Hemos recopilado [una lista de estimaciones de probabilidad de resultados malos](/pdoom) de varios expertos notables en el campo.
+
+Los investigadores de seguridad de la IA (que son los expertos en este tema) están divididos en esta pregunta, y las estimaciones [varían del 2% al 97% con un promedio del 30%](https://web.archive.org/web/20221013014859/https://www.alignmentforum.org/posts/QvwSr5LsxyDeaPK5s/existential-risk-from-ai-survey-results).
+Tenga en cuenta que ningún investigador de seguridad de la IA encuestado cree que haya una probabilidad del 0%.
+Sin embargo, puede haber un sesgo de selección aquí: las personas que trabajan en el campo de la seguridad de la IA probablemente lo hacen porque creen que prevenir resultados malos de la IA es importante.
+
+Si preguntas a los investigadores de la IA en general (no especialistas en seguridad), este número baja a un [promedio de alrededor del 14%](https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/), con una mediana del 5%.
+La gran mayoría, el 86% de ellos, cree que el problema de la alineación es un problema real y importante.
+Tenga en cuenta que puede haber un sesgo de selección en la dirección opuesta: las personas que trabajan en la IA probablemente lo hacen porque creen que la IA será beneficiosa.
+
+_Imagina que estás invitado a un vuelo de prueba en un avión nuevo_.
+Los ingenieros del avión piensan que hay un 14% de probabilidad de que se estrelle.
+¿Subirías a ese avión? Porque ahora mismo, todos estamos abordando el avión de la IA.
+
+## ¿Cuánto tiempo tenemos hasta que la IA sea superinteligente? {#how-long-do-we-have-until-superintelligent-ai}
+
+Puede tomar meses, puede tomar décadas, nadie lo sabe con certeza.
+Sin embargo, sabemos que el ritmo del progreso de la IA a menudo se subestima.
+Hace solo tres años, pensábamos que tendríamos sistemas de IA que superarían el SAT en 2055.
+Llegamos allí en abril de 2023.
+Debemos actuar como si tuviéramos muy poco tiempo porque no queremos ser sorprendidos.
+
+[Lea más sobre la urgencia](/urgency).
+
+## Si hacemos una pausa, ¿qué pasa con China? {#if-we-pause-what-about-china}
+
+Para empezar, en este momento, China tiene regulaciones de IA más estrictas que prácticamente cualquier otro país.
+No [permitieron chatbots](https://www.reuters.com/technology/chinas-slow-ai-roll-out-points-its-tech-sectors-new-regulatory-reality-2023-07-12/) y [prohibieron el entrenamiento con datos de Internet](https://cointelegraph.com/news/china-sets-stricter-rules-training-generative-ai-models) hasta [septiembre de 2023](https://asia.nikkei.com/Business/Technology/China-approves-AI-chatbot-releases-but-will-it-unleash-innovation).
+China tiene un gobierno más controlador y, por lo tanto, tiene aún más razones para temer los impactos incontrolables y impredecibles de la IA.
+Durante la reunión del Consejo de Seguridad de la ONU sobre la seguridad de la IA, China fue el único país que mencionó la posibilidad de implementar una pausa.
+
+También tenga en cuenta que estamos pidiendo una pausa _internacional_, impuesta por un tratado.
+Tal tratado también debe ser firmado por China.
+Si el tratado garantiza que otras naciones también se detendrán, y hay mecanismos de aplicación suficientes en su lugar,
+esto debería ser algo que China también querrá ver.
+
+## OpenAI y Google dicen que quieren ser regulados. ¿Por qué están protestando contra ellos? {#openai-and-google-are-saying-they-want-to-be-regulated-why-are-you-protesting-them}
+
+Aplaudimos a [OpenAI](https://openai.com/blog/governance-of-superintelligence) y [Google](https://www.ft.com/content/8be1a975-e5e0-417d-af51-78af17ef4b79) por sus llamados a la regulación internacional de la IA.
+Sin embargo, creemos que las propuestas actuales no son suficientes para prevenir una catástrofe de la IA.
+Google y Microsoft aún no han declarado públicamente nada sobre el riesgo existencial de la IA.
+Solo OpenAI [menciona explícitamente el riesgo de extinción](https://openai.com/blog/governance-of-superintelligence), y nuevamente los aplaudimos por tomar este riesgo en serio.
+Sin embargo, su estrategia es bastante explícita: una pausa es imposible, debemos llegar a la superinteligencia primero.
+El problema con esto, sin embargo, es que [no creen que hayan resuelto el problema de la alineación](https://youtu.be/L_Guz73e6fw?t=1478).
+Las empresas de IA están atrapadas en una carrera hacia el fondo, donde la seguridad de la IA se sacrifica por una ventaja competitiva.
+Esto es simplemente el resultado de la dinámica del mercado.
+Necesitamos que los gobiernos intervengan e implementen políticas (a nivel internacional) que [prevengan los peores resultados](/proposal).
+
+## ¿Las empresas de IA están empujando la narrativa del riesgo existencial para manipularnos? {#are-ai-companies-pushing-the-existential-risk-narrative-to-manipulate-us}
+
+No podemos saber con certeza qué motivaciones tienen estas empresas, pero sabemos que **el riesgo existencial no fue inicialmente impulsado por las empresas de IA: fueron científicos, activistas y ONG**.
+Veamos la cronología.
+
+Ha habido muchas personas que han advertido sobre el riesgo existencial desde principios de la década de 2000.
+Eliezer Yudkowsky, Nick Bostrom, Stuart Russell, Max Tegmark y muchos otros.
+No tenían tecnología de IA para impulsar: simplemente estaban preocupados por el futuro de la humanidad.
+
+Las empresas de IA nunca mencionaron el riesgo existencial hasta hace muy poco.
+
+Sam Altman es una excepción interesante.
+Escribió sobre el riesgo existencial de la IA [en 2015, en su blog personal](https://blog.samaltman.com/machine-intelligence-part-1), antes de fundar OpenAI.
+En los años siguientes, no hizo ninguna mención explícita del riesgo existencial nuevamente.
+Durante la audiencia del Senado el 16 de mayo de 2023, cuando se le preguntó sobre su publicación de blog sobre el riesgo existencial, solo respondió hablando de empleos y la economía.
+No estaba impulsando la narrativa del riesgo existencial aquí, estaba evitándola activamente.
+
+En mayo de 2023, todo cambió:
+
+- El 1 de mayo, el 'padre de la IA' Geoffrey Hinton [renuncia a su trabajo en Google](https://fortune.com/2023/05/01/godfather-ai-geoffrey-hinton-quit-google-regrets-lifes-work-bad-actors/) para advertir sobre el riesgo existencial.
+- El 5 de mayo, se anuncia la [primera protesta de PauseAI](https://twitter.com/Radlib4/status/1654262421794717696), justo en la puerta de OpenAI.
+- El 22 de mayo, OpenAI publicó [una publicación de blog sobre la gobernanza de la superinteligencia](https://openai.com/blog/governance-of-superintelligence), y mencionó el riesgo existencial por primera vez.
+- El 24 de mayo, el ex CEO de Google, Eric Schmidt, reconoce el riesgo existencial.
+- El 30 de mayo, se publicó la [declaración de Safe.ai (reconociendo el riesgo existencial)](https://www.safe.ai/statement-on-ai-risk). Esta vez, incluyendo personas de OpenAI, Google y Microsoft.
+
+Estas empresas han sido muy lentas en reconocer el riesgo existencial, considerando que muchos de sus empleados han sido conscientes de él durante años.
+Entonces, en nuestra opinión, las empresas de IA no están impulsando la narrativa del riesgo existencial, han sido reactivas a otros que lo impulsan, y han esperado con su respuesta hasta que fue absolutamente necesario.
+
+Los incentivos comerciales apuntan en la dirección opuesta: las empresas preferirían que la gente no se preocupe por los riesgos de sus productos.
+Prácticamente todas las empresas restan importancia a los riesgos para atraer a los clientes y las inversiones, en lugar de exagerarlos.
+¿Cuánta regulación estricta y atención negativa están invitando las empresas debido a admitir estos peligros?
+¿Y dedicaría una empresa como OpenAI [el 20% de sus recursos informáticos](https://openai.com/blog/introducing-superalignment) a la seguridad de la IA si no creyera en los riesgos?
+
+Aquí está nuestra interpretación: las empresas de IA firmaron la declaración porque _saben que el riesgo existencial es un problema que debe tomarse muy en serio_.
+
+¿Una gran razón por la que muchas otras personas aún no quieren creer que el riesgo existencial es una preocupación real?
+Porque reconocer que _estamos en peligro_ es algo muy, muy aterrador.
+
+[Lea más sobre la psicología del riesgo existencial](/psychology-of-x-risk).
+
+## ¡Está bien, quiero ayudar! ¿Qué puedo hacer? {#ok-i-want-to-help-what-can-i-do}
+
+Hay muchas [cosas que puedes hacer](/action).
+Por tu cuenta, puedes escribir una [carta](/writing-a-letter), publicar [volantes](/flyering), [aprender](/learn) e informar a otros, unirte a una [protesta](/protests), o [donar](/donate) algo de dinero.
+Pero aún más importante: puedes [unirte a PauseAI](/join) y coordinar con otros que están tomando medidas.
+Consulta si hay [comunidades locales](/communities) en tu área.
+Si deseas contribuir más, puedes convertirte en voluntario y unirte a uno de nuestros [equipos](/teams), o [establecer una comunidad local](/local-organizing).
+
+Incluso cuando enfrentamos el fin del mundo, todavía puede haber esperanza y un trabajo muy gratificante que hacer.
diff --git a/l10n-cage/md/es/feasibility.md b/l10n-cage/md/es/feasibility.md
new file mode 100644
index 00000000..2e5926af
--- /dev/null
+++ b/l10n-cage/md/es/feasibility.md
@@ -0,0 +1,124 @@
+---
+title: La viabilidad de una pausa
+description: ¿Es posible pausar la IA?
+---
+
+Pausar la IA no es imposible.
+Establecer límites que determinen qué tipo de tecnologías y acciones pueden desarrollarse y realizarse es algo que hacemos constantemente.
+
+## Viabilidad política de una pausa {#political-feasibility-of-a-pause}
+
+Algunos han calificado la pausa de "radical" o "extrema", pero no es así como el público lo percibe.
+Varias [encuestas y sondeos](/polls-and-surveys) han demostrado que:
+
+- La gente está muy preocupada por la IA (principalmente por motivos de seguridad)
+- La gran mayoría (casi el 70%) [apoya una pausa en el desarrollo de la IA](https://www.sentienceinstitute.org/aims-survey-supplement-2023)
+- La gran mayoría (>60%) [apoya un tratado internacional para prohibir la AGI](https://www.sentienceinstitute.org/aims-survey-supplement-2023)
+
+## Aplicabilidad técnica de una pausa {#technical-enforceability-of-a-pause}
+
+La forma más sencilla de regular los modelos de vanguardia de manera efectiva es [gobernando la potencia de cálculo](https://www.governance.ai/post/computing-power-and-the-governance-of-ai).
+Podemos [rastrear las GPU](https://arxiv.org/abs/2303.11341) como rastreamos los elementos utilizados en el desarrollo de armas nucleares.
+Afortunadamente, la cadena de suministro de cómputo tiene varios puntos de estrangulamiento.
+El hardware necesario para entrenar los modelos más grandes (GPU especializadas) está siendo producido por [solo 1 o 3 empresas](https://assets-global.website-files.com/614b70a71b9f71c9c240c7a7/65cb86a0341180453f268f38_SpwF1cBT0AS-m_n20TBXzCF6YprIVM4YRb9PMYWURseU1KtVkSAZJ735esGxNenwVO4Q4wlSUP-_MV3E-SEKp4SIgo1-oNe14CeDHtrb3PLXpJMym5qpWEDbXcf3maEi4yQYfQ-3NP7XgUmkO_4Zekw.jpeg).
+Hay múltiples monopolios en la cadena de suministro de hardware de entrenamiento de IA:
+
+- ASML es la única empresa que produce máquinas de litografía EUV
+- TSMC es la única empresa que puede fabricar los chips más avanzados
+- NVidia es la única empresa que diseña las GPU más avanzadas
+
+## Poder sobre las empresas {#power-over-companies}
+
+Si lo que temes son principalmente las empresas u organizaciones, podemos controlarlas a través de 1) leyes, regulaciones y tratados, o 2) opinión pública que las obligue a autorregularse.
+
+Por supuesto, el primer método es el mejor, pero la reputación que afecta a los clientes, inversores, moral de los empleados y reclutamiento es una razón por la que organizamos protestas frente a algunos laboratorios de IA.
+Además, es importante recordar que las regulaciones pueden beneficiar a las empresas a largo plazo, debido a la captura regulatoria, no perder consumidores si los peligros se materializan, y desventaja a los competidores.
+Así que debemos tener cuidado de no solo obtener una pausa, sino de que no se levante hasta que sea seguro seguir desarrollando la IA de vanguardia.
+
+## Poder sobre los gobiernos {#power-over-governments}
+
+Si temes que los gobiernos no tomen en serio tu seguridad, eso es un problema más complicado.
+Pero en general, los políticos se preocupan por no perder apoyo político hasta cierto punto.
+Y, lo que es más importante, también pueden estar preocupados por los riesgos sin el enorme sesgo y las obligaciones legales que algunos individuos de las empresas tienen para maximizar las ganancias.
+
+Si crees que podríamos obtener la regulación de un solo gobierno, pero no un tratado multilateral, debes darte cuenta de que si los gobiernos pueden reconocer que algunas tecnologías incontrolables son un peligro para su población y pueden originarse en otras naciones, las nuevas tecnologías se convierten en un problema de seguridad nacional, y los gobiernos se vuelven interesados en detener a otros países para que no las desarrollen también.
+Además, es importante darse cuenta de que no necesitamos que muchos países estén de acuerdo con una pausa en primer lugar.
+En realidad, puedes obtener una pausa en el desarrollo de modelos de vanguardia prohibiéndolos solo en EE. UU. (y incluso solo en California).
+China y el resto del mundo parecen estar bastante atrasados, y no deberíamos preocuparnos si su adhesión a un tratado sucede algo más tarde.
+
+## Casos históricos similares {#similar-historical-cases}
+
+Aunque cada prueba de incompetencia o mala intención de nuestros gobiernos, empresas y sistemas puede llevarnos a un pensamiento derrotista, donde la coordinación es demasiado difícil, los intereses de la gente no están bien representados,
+y/o están representados pero son estúpidos, a veces no reconocemos las victorias que hemos tenido como civilización a lo largo de la historia.
+
+Para obtener evidencia empírica de por qué un tratado como este es posible, debemos mirar los acuerdos globales del pasado.
+Ya sean informales o formales, han sido bastante comunes a lo largo de la historia, principalmente para resolver disputas y promover los derechos humanos.
+Muchas victorias pasadas, como la abolición de la esclavitud, también tenían fuertes incentivos económicos a corto plazo en su contra.
+Pero eso no las detuvo.
+
+Si buscamos ejemplos modernos de acuerdos globales contra nuevas tecnologías, podemos encontrar muchos. Algunos de los más importantes fueron:
+
+- El [Protocolo de Montreal](https://es.wikipedia.org/wiki/Protocolo_de_Montreal), que prohibió la producción de CFC en todos los 197 países y, como resultado, las emisiones globales de sustancias que agotan la capa de ozono han disminuido más del 99% desde 1986. Gracias al protocolo, el agujero en la capa de ozono se está curando ahora, y eso es por lo que ya no se habla de ello.
+- La [Convención sobre Armas Biológicas](https://es.wikipedia.org/wiki/Convención_sobre_Armas_Biológicas), que prohibió las armas biológicas y tóxicas y fue firmada por 185 estados.
+- La [Convención sobre Armas Químicas](https://es.wikipedia.org/wiki/Convención_sobre_Armas_Químicas), que prohibió las armas químicas y fue firmada por 193 estados.
+- La [Convención sobre la Modificación del Medio Ambiente](https://es.wikipedia.org/wiki/Convención_sobre_la_Modificación_del_Medio_Ambiente), que prohibió la guerra climática y fue firmada por 78 estados.
+- El [Tratado del Espacio Exterior](https://es.wikipedia.org/wiki/Tratado_del_Espacio_Exterior), que prohibió la estación de armas de destrucción masiva en el espacio exterior, prohibió las actividades militares en cuerpos celestes, vinculó legalmente la exploración y el uso pacífico del espacio, y fue firmado por 114 países.
+- El [Tratado de No Proliferación Nuclear](https://es.wikipedia.org/wiki/Tratado_de_No_Proliferación_Nuclear) y un montón de otros acuerdos internacionales, que han sido clave para prevenir la propagación de armas nucleares y promover el objetivo de lograr el desarme nuclear. Gracias a ellos, hemos disuadido a muchos países de perseguir programas de armas nucleares, reducido la cantidad de arsenales nucleares desde los años 90, y evitado la guerra nuclear durante muchas décadas. Todos logros increíbles.
+- La [Agencia Internacional de Energía Atómica](https://es.wikipedia.org/wiki/Agencia_Internacional_de_Energía_Atómica), que es una organización intergubernamental compuesta por 178 estados miembros que busca promover el uso pacífico de la energía nuclear y evitar su uso para fines militares. Independientemente de si crees que la energía nuclear está sobre-regulada o no, la AIEA se considera un buen ejemplo de una herramienta internacional que podríamos tener para evaluar la seguridad de los modelos de IA más grandes.
+- Y la [Declaración de las Naciones Unidas sobre la Clonación Humana](https://es.wikipedia.org/wiki/Declaración_de_las_Naciones_Unidas_sobre_la_Clonación_Humana), que pidió a los estados miembros que prohibieran la clonación humana en 2005 y llevó a muchos de ellos a hacerlo. Es un caso interesante porque ahora, casi 20 años después y sin un acuerdo formal, 60 países han prohibido la clonación humana total o parcialmente y no ha habido un solo caso (verificado) de un ser humano clonado. Así que, en cierto sentido, sugiere la posibilidad de que muchas regulaciones unilaterales sean suficientes para prevenir el desarrollo de otras tecnologías peligrosas.
+
+Si crees que la IA es similar a otros casos en los que no logramos hacer buenos tratados internacionales: todo lo que ha sucedido tuvo una primera vez.
+Había particularidades que los hicieron la primera vez y esa es una razón para abordar [las particularidades de la IA](#ai-particular-case).
+
+### Impacto de las protestas {#impact-of-protests}
+
+Es bastante común que la gente cuestione la efectividad de las protestas y los movimientos sociales en general.
+Por supuesto, hay muchos casos en los que las manifestaciones no producen resultados, pero también hay situaciones en las que las demandas de los manifestantes se cumplen y parece probable que esos resultados [fueran causados por las protestas](https://www.socialchangelab.org/_files/ugd/503ba4_052959e2ee8d4924934b7efe3916981e.pdf).
+Y [hay razones para creer que el activismo de la IA podría lograr resultados similares](https://forum.effectivealtruism.org/posts/WfodoyjePTTuaTjLe/efficacy-of-ai-activism-have-we-ever-said-no).
+
+Si no te gusta la idea de protestar de todos modos, también [tomamos otras acciones](/action), como contactar [directamente a los gobiernos](/lobby-tips).
+
+## Caso particular de la IA {#ai-particular-case}
+
+Si crees que la IA es lo suficientemente diferente a estos casos (o incluso si no lo crees), es útil analizar su situación particular.
+Las cosas que hacen que la IA sea diferente pueden no necesariamente hacer que sea menos regulable.
+Por ejemplo, no estamos [tratando de regular productos y servicios existentes que la gente ya disfruta y utiliza regularmente](/proposal), y no estamos en contra de muchas empresas que pueden hacer lobby o trabajadores que perderían sus empleos si tenemos éxito. Más bien al contrario.
+
+Otro punto a favor es que el público no está partidista ni políticamente dividido, sino [unido en apoyo a la regulación](https://drive.google.com/file/d/1n0pXDBuIcb01tW4TQdP1Mb5aAiFDvWk0/view).
+Sin embargo, debemos tener cuidado de no desanimarlos, escuchar sus perspectivas y ver de qué manera particular pueden ser ayudados por una pausa basada en lo que les preocupa. Dado que mucha gente aún no ha decidido qué tipo de regulación apoya.
+
+Cuando se trata de los riesgos de la IA, el público y los expertos parecen [preocupados por los riesgos y interesados en la regulación](/polls-and-surveys).
+Los políticos, basándose en las [políticas que se están aprobando y trabajando](https://www.bloomberg.com/news/articles/2024-03-13/regulate-ai-how-us-eu-and-china-are-going-about-it), las [cumbres que están organizando](/summit), y las [declaraciones que están haciendo](/quotes), parecen bastante preocupados también.
+Incluso un reciente [informe encargado por el gobierno de EE. UU.](https://time.com/6898967/ai-extinction-national-security-risks-report/) recomienda, entre varias propuestas, diferentes tipos de pausas en el desarrollo de la IA para evitar riesgos para la seguridad nacional y la humanidad en su conjunto.
+
+Todo esto está sucediendo mientras PauseAI todavía es bastante joven y la mayoría de la gente no ha oído hablar de la mayoría de los riesgos.
+Si lográramos aumentar la conciencia y el consenso sobre los riesgos existenciales, por ejemplo, tendríamos el potencial de volverse más mainstream dado que prácticamente nadie quiere morir o que el mundo termine.
+Eso no es algo que esté siquiera en el mejor interés de las empresas, gobiernos y personas más egoístas.
+
+Incluso si lleva tiempo, la manifestación de los problemas que la IA traerá en los próximos años potenciará la conciencia de ellos y eventualmente desencadenará más y más regulación.
+En el caso de que no obtengamos una pausa tan pronto como nos gustaría, el desempleo masivo y todo tipo de incidentes podrían poner a la mayoría de la gente en la misma página, ya sea progresivamente o de repente, y hacer que las personas que no habrían considerado seriamente una pausa, en realidad lo hagan.
+Eso es por lo que es importante no basar nuestro potencial para tener éxito en resultados a corto plazo, sino estar siempre preparados para nuevos adherentes y aliados, y estar listos para guiar a los políticos para implementar nuestras propuestas en caso de que suceda un disparo de advertencia.
+
+## Beneficios colaterales {#collateral-benefits}
+
+Abogar por una pausa tiene otros impactos positivos fuera de lograrla.
+Informar al público, a las personas técnicas y a los políticos sobre los riesgos ayuda a otras intervenciones que apuntan a hacer que las IA sean seguras y las IA sean seguras.
+Hace que la gente dé más importancia al trabajo técnico, político y comunicacional que se realiza en la seguridad y la ética de la IA, lo que en última instancia significa más financiamiento y empleos en ellos, esperando mejores resultados.
+
+No solo traería nuevas personas y recursos a nuevas intervenciones, sino que también ayudaría a que las iniciativas técnicas y políticas moderadas parezcan más "razonables" y aumenten sus posibilidades de ser apoyadas.
+
+Además, podría preparar a la gente para los peligros, enseñarles a utilizar la IA de manera más ética, e incluso convencerlos de no invertir o trabajar en proyectos de vanguardia y peligrosos.
+
+## No te rindas al pesimismo {#dont-give-in-to-pessimism}
+
+Entendemos de dónde vienen las creencias pesimistas sobre la regulación fuerte y que no será fácil.
+Pero no es fácil predecir el futuro tampoco, y este artículo busca argumentar en contra de la confianza excesiva en nuestra impotencia, ya que lo único que puede hacer es actuar como una profecía autocumplida.
+
+Lo único fácil de hacer es rendirse, [es la salida fácil](/psychology-of-x-risk#difficult-to-act-on).
+Porque si no hay nada que podamos hacer, no hay nada que debamos hacer.
+Pero no deberíamos rendirnos sin siquiera intentarlo.
+Esta es en realidad nuestra mejor oportunidad de tener un impacto en el mundo y el futuro de nuestra civilización.
+
+## La teoría de la decisión dice: inténtalo de todos modos {#decision-theory-says-try-it-anyways}
+
+Incluso si crees que una pausa es bastante improbable y no te importan los otros beneficios, a menos que no creas en los mayores riesgos o tengas mejores estrategias en mente, te recomendamos que [te unas](/join). No entierres tu cabeza en la arena y espera a morir o ser salvado, puedes ayudarnos a lograr esto.
diff --git a/l10n-cage/md/es/flyering.md b/l10n-cage/md/es/flyering.md
new file mode 100644
index 00000000..bdd24a01
--- /dev/null
+++ b/l10n-cage/md/es/flyering.md
@@ -0,0 +1,180 @@
+---
+title: Guía para repartir volantes
+description: Cómo repartir volantes para PauseAI
+---
+
+## ¿Por qué repartir volantes? {#why-flyering}
+
+- El objetivo de repartir volantes es [crear](/local-organizing) y hacer crecer una [comunidad local de PauseAI](/communities)
+- Para lograr esto, el objetivo inicial de repartir volantes debe ser anunciar una reunión comunitaria, para que todos los interesados puedan asistir y aprender sobre PauseAI y cómo pueden ayudar
+- Los esfuerzos posteriores de repartir volantes pueden centrarse en informar al público, encontrar nuevos miembros, difundir la palabra sobre una próxima protesta, obtener firmas para una petición, etc., y muchos de estos propósitos pueden perseguirse fácilmente al mismo tiempo
+
+## Contenido de los volantes {#flyer-contents}
+
+- Encuentra materiales existentes en [la carpeta de volantes](https://drive.google.com/drive/folders/1MAU_bq31bEuylhzkt2NkZ_XRY6TlKaqZ?usp=drive_link).
+- Los volantes existentes pueden editarse para ser más específicos para tu propósito. Utiliza la [plantilla de Figma](https://www.figma.com/design/iQ4PHQTi1vAVmT9Lckazqt/PauseAI-designs---editable) para crear tus propios volantes.
+
+Lo más útil de un volante no es su contenido, sino la interacción que tienes con las personas a las que se los estás repartiendo. Lo segundo más útil es una llamada a la acción directa, especialmente si resulta en una conexión / obtener su información de contacto. El contenido en sí es importante, aunque. Tómate el tiempo para considerar a tu audiencia, considera tu objetivo y haz lo que puedas para cerrar la brecha entre ellos.
+
+**Cosas que siempre debes incluir:**
+
+- Una llamada a la acción directa, hecha de manera clara y sencilla
+ - ("¡Aprende más en este sitio web!", "¡Descubre cómo puedes ayudar!", "¡Únete a nosotros!", "¡Llama a tus representantes!", "¡Ven a esta reunión!", "¡Únete a esta protesta!")
+
+- La hora y el lugar de tu evento, cuando sea aplicable (Recomendamos el próximo fin de semana)
+- Una forma de unirse a tu grupo local (por ejemplo, un código QR a una lista de inscripción fácil)
+- Marca de PauseAI
+
+**Otras cosas que debes considerar incluir:**
+
+- Algo llamativo / atractivo / interesante
+- Algo informativo
+- Una progresión natural de preocupaciones (hacia el riesgo existencial)
+- Fuentes expertas / citas
+- Una forma de contactarte
+- Un pequeño regalo, como un caramelo grapado o una moneda de diez centavos en cinta adhesiva doble
+ - Psicológicamente, cuando le das algo a alguien, es más probable que sientan que deberían darte algo a cambio (su tiempo, atención, consideración, etc.)
+
+## Impresión de volantes {#flyer-printing}
+
+Hay muchas opciones para imprimir volantes, dependiendo de las restricciones presupuestarias y los requisitos de calidad y tiempo. La impresión a doble cara y a todo color puede ser costosa (del orden de $1 USD por página). En el extremo más bajo (si hay una venta muy buena), a veces es posible imprimir a menos de 10 centavos por página cuando se imprime a granel en páginas pequeñas.
+
+- Los voluntarios han tenido éxito con la impresión en línea de tiendas como 48 Hour Print, VistaPrint y Bizay
+- Verifica con tu tienda de impresión local y compara precios con tiendas en línea
+- Si necesitas una opción muy económica a bajo volumen, considera imprimir volantes de una sola cara para el costo de impresión más bajo en tu área
+- Asegúrate de imprimir todos tus materiales con anticipación, teniendo en cuenta el tiempo de entrega
+- Si estás apurado, puedes imprimir en casa, o usar una tienda de impresión local, o imprimir en tu biblioteca local
+
+## Configuración para repartir volantes {#flyering-setup}
+
+- Incluso para una salida breve y única, es una buena idea tener al menos 100 volantes. ¡Mejor tener demasiados que muy pocos!
+ - Precaución: Si tu volante tiene información específica del evento, será inútil después del evento, así que no te excedas
+ - Consejo profesional: puedes grapar un pequeño trozo de información específica del evento a un volante más grande y siempre verde
+
+- Puede ser muy útil tener un letrero de A en tus pies.
+ - Les da a aquellos que lo leen la oportunidad de elegir interactuar contigo por su cuenta
+ - Puede hacer que las personas piensen, incluso si no han interactuado contigo
+ - Ver [Letreros de A para repartir volantes (Google Drive)](https://drive.google.com/drive/folders/1VzYS-xQ44cqwVzb1hvtwkS7_Z9V4SLIw?usp=drive_link)
+
+- Es bueno tener un formulario que las personas puedan firmar en el acto si están interesadas en lo que tienes que decir y participar en una conversación
+ - Si las personas llenan su información, es mucho más fácil contactarlas, invitarlas a eventos y organizar un grupo local; puedes hacer esto con un portapapeles, un bolígrafo y un formulario de inscripción o petición impreso
+
+- Puede ser útil tener códigos QR pregenerados y etiquetados en un álbum en tu teléfono o en un trapper impreso para cualquier recurso digital que desees señalarar a las personas durante las conversaciones (por ejemplo, sitios web, artículos, documentos, podcasts, videos)
+- Si tienes dos o más voluntarios, puedes dividir el esfuerzo de repartir volantes para cubrir más área, o puedes configurar una mesa (donde esté permitido)
+- Planea quedarte al menos un par de horas
+ - Puede tomar tiempo encontrar tus pies
+ - Si te pones en marcha y si tienes el tiempo y la energía, ¡puedes seguir adelante!
+
+## Consejos y lecciones aprendidas {#tips-and-lessons-learned}
+
+### ¡Tú puedes hacer esto! {#you-can-do-this}
+
+Aquí hay una historia del voluntario Nathan Metzger:
+
+> No soy el tipo de activista. Soy un introvertido autista con ansiedad social alta. Pensar en interactuar con personas en la calle me ponía tan nervioso que me sentía físicamente enfermo. Hay pocas cosas que me daban más miedo que avergonzarme en público, pero el fin literal del mundo es una de esas cosas. Así que puse ese miedo a mi espalda y lo dejé que me empujara hacia adelante. Lo hice de todos modos — lo hice asustado. Pedí todos los suministros, planeé un día y un lugar, y fui solo. Me tomó alrededor de una hora sentir que sabía lo que estaba haciendo. Después de tener algunas interacciones positivas y negativas, me di cuenta de que todavía estaba vivo, dejé de sentir miedo y, en contra de todas las expectativas, comencé a divertirme.
+
+### La ubicación es importante {#location-matters}
+
+1. **Los campus de universidades públicas son ubicaciones ideales:**
+ - Tienen áreas que están abiertas al público, donde se permite la solicitud siempre y cuando se sigan las leyes locales y las reglas de etiqueta del campus
+ - Están llenos de personas curiosas y enérgicas que pueden tener tiempo en sus manos
+ - Pueden estar predeciblemente ocupados en momentos específicos del día en ubicaciones específicas
+ - No es necesario intentar dirigirse a un subconjunto específico de estudiantes, ya que todas las personas comparten estas preocupaciones
+
+2. **Centros de la ciudad**
+ - El factor más importante es si el área tiene mucho tráfico peatonal; los centros de la ciudad son especialmente geniales para esto, especialmente en las grandes ciudades
+ - Puedes encontrar personas de una amplia gama de demografías que no son estudiantes universitarios
+
+3. **Otras áreas transitables concurridas**
+ - Centros comerciales al aire libre / mercados / plazas
+ - Aceras concurridas
+ - Parques públicos
+
+- **Siempre verifica las leyes y ordenanzas locales**
+ - Al repartir volantes, puedes y debes ser efectivo sin llamar la atención negativa de la seguridad o la policía
+ - Tu ubicación específica puede tener reglas y restricciones adicionales
+ - Si se necesitan permisos especiales, intenta obtener la aprobación con anticipación.
+
+- Cuando llegues, intenta encontrar un equilibrio entre optimizar tu ubicación y realmente repartir volantes.
+ - Es una buena idea mirar alrededor para ver dónde está el tráfico alto; puedes duplicar la cantidad de volantes que estás repartiendo al moverte a un lugar ligeramente mejor
+ - Sin embargo, los patrones de tráfico pueden disminuir y fluir; si te mueves demasiado, tendrás menos tiempo para repartir volantes
+ - Si sientes que has encontrado la mejor ubicación, puedes quedarte allí todo el tiempo
+
+- Y por supuesto: **¡Sé seguro!**
+
+### Cómo interactuar con los transeúntes {#how-to-engage-passersby}
+
+_Incluyendo instrucciones demasiado detalladas sobre cómo comportarse como una persona, para aquellos de nosotros que no sabemos automáticamente cómo hacerlo_
+
+(La información aquí es muy detallada, en caso de que algo sea útil para ti. Sin embargo, es importante enfatizar que "simplemente hacerlo" es la mejor política. ¡Estará bien, y aprenderás muchas cosas útiles rápidamente!)
+
+1. Ofrece volantes a cualquiera que no esté enterrado en su teléfono o en una conversación
+ - Para aquellos que parecen ocupados, algunos realmente están ocupados y otros están tratando de evitarte; ¡no desperdicies tu energía!
+ - Sin embargo, si estás obteniendo más "sí" que "no", entonces debes intentar interactuar con más personas
+
+2. **Sé confiado**, amigable y no amenazante
+3. Mira directamente a un transeúnte, pregúntale si quiere un volante o si puedes dárselo, y sostén el volante hacia ellos
+4. Si aceptan y se quedan un momento, interactúa con ellos más preguntándoles sobre sus pensamientos / preocupaciones y comienza una conversación; si dicen que no, muévete con educación
+5. Si alguien se acerca y hace contacto visual cuando está a menos de 5 segundos de distancia, entonces mantén **contacto visual** con ellos hasta que estén a una distancia de ofrecer volantes
+ - Si miras hacia otro lado, eso reduce tu interés aparente en ellos y ellos tampoco estarán interesados en ti; por otro lado, no simplemente mires fijamente a las personas
+
+6. La proximidad física es importante; es mejor **ignorar a las personas que están más lejos** (>20ft o 6m) si estás en un espacio amplio
+ - No puedes alcanzarlos físicamente, y pueden estar evitándote intencionalmente de todos modos; ¡hay más peces en el mar!
+
+7. **No te interpongas** en el camino de los transeúntes; no necesitas hacer eso para llamar la atención de las personas que estás tratando de alcanzar
+8. Busca un equilibrio entre tener conversaciones y repartir más volantes
+ - Tener conversaciones cara a cara positivas es de muy alto valor para reclutar miembros
+ - Si una interacción no va a ninguna parte o es negativa, encuentra una manera de desvincularte con educación y repartir más volantes
+ - Si puedes ir con al menos otra persona, es más fácil tener conversaciones y seguir distribuyendo materiales al mismo tiempo
+
+9. **Apunta a informar, no a persuadir**
+ - No necesariamente te propongas cambiar mentes; muchas personas estarían preocupadas si supieran lo que sabes, y muchas personas ya están preocupadas pero no saben qué hacer al respecto. **¡Encuentra a tu gente!**
+ - Las personas tienden a ser curiosas cuando escuchan que hay algo que podría afectarlas que no saben
+
+10. **Interactúa con empatía**
+ - Muchas personas tienen preocupaciones sobre la IA que no son las mismas que las tuyas. No intentes cambiar lo que les preocupa. En su lugar, reconoce sus preocupaciones e invítalos al amplio paraguas de PauseAI: personas que quieren hacer una pausa en la IA y sus riesgos.
+ - Intenta no arrebatar la derrota de las fauces de la victoria. **Usa "Sí y".** Si tienen preocupaciones reales sobre la IA que parecen demasiado suaves para ti o parecen estar enfocadas en las cosas equivocadas, no comuniques que están _equivocados_; comunica que están _más en lo correcto de lo que saben_.
+ - Cuando interactúas con alguien que parece muy de acuerdo, es bueno hablar un poco más suave y actuar con más suavidad. Recuerda, para los demás, eres un extraño con una agenda desconocida, y algunas personas están más nerviosas por hablar contigo que tú por hablar con ellas
+
+### Algunas cosas que decir {#some-things-to-say}
+
+Para llamar la atención:
+
+1. **"¿Puedo darte un volante?"**
+ - (Como si estuvieras haciéndoles un favor, en lugar de intentar que te hagan un favor)
+
+2. "¿Quieres saber más sobre los peligros de la IA?"
+3. "¿Quieres saber qué está pasando con la IA?"
+
+Cuando se te pregunte de qué se trata todo esto:
+
+1. **"PauseAI es un movimiento global de base que trabaja para mitigar los peores riesgos de la IA"**
+2. **"Intentando cerrar la brecha entre lo que los expertos dicen sobre la IA y lo que la mayoría de las personas saben"**
+3. "Quizás no deberíamos construir sistemas de IA poderosos que no sabemos cómo controlar todavía"
+4. "Un tratado global para frenar el desarrollo de la IA hasta que sea seguro"
+5. "Somos un movimiento de base preocupado por lo que los expertos están diciendo sobre los riesgos de la IA"
+
+- Ten en cuenta que **los argumentos de autoridad tienen peso**
+- Mencionar el riesgo existencial justo al principio puede ser un desvío, pero dejarlo fuera por completo generalmente no es útil tampoco
+- En general, es bueno haber pensado en qué tipo de conversaciones deseas tener y tener respuestas listas para la mayoría de las cosas relevantes que las personas puedan preguntar
+
+### Cómo responden las personas {#how-people-respond}
+
+1. La mayoría de las personas que aceptarían felizmente un volante no pedirán uno
+2. Un pequeño subconjunto de personas se involucra por su propia cuenta y pide un volante o inicia una conversación
+3. Más personas rechazan un volante que aceptan uno, y eso está perfectamente bien
+ - En un espacio con muchas personas, la ley de los grandes números funciona para ti
+
+4. Algunas personas pueden decir que están de acuerdo contigo, pero aún así no quieren un volante (y eso está bien)
+5. En la mayoría de los lugares del mundo, ¡casi todos son extremadamente educados!
+ - _(Puede que no tengas la misma experiencia si estás en un área que es culturalmente conocida por ser descortés.)_
+
+6. La gran mayoría de las interacciones son positivas en lugar de negativas
+7. De las personas que se detienen a hablar contigo, muchas de ellas probablemente te tratarán automáticamente como si supieras de lo que estás hablando
+ - Y (con suerte) ¡lo sabes! Estás tomando tiempo de tu día para comunicar algo a ellos que crees que es importante, y las personas a menudo reconocen eso.
+
+8. Un letrero de A en tus pies actúa como una invitación: un porcentaje de personas se auto seleccionan y te evitan si no están interesadas (lo que puede ahorrarte algo de energía), y algunas personas interactúan contigo por su cuenta
+
+## Conclusión: ¡Sal ahí! {#conclusion-get-on-out-there}
+
+Esto es mucha información. Está destinado a proporcionar un marco, responder preguntas y llenar lagunas de conocimiento para aumentar tu confianza para tu primera salida de repartir volantes. Pero todo lo que _realmente_ necesitas es una pila de volantes y la voluntad de intentarlo. Esto es algo que casi todos pueden hacer, y sentirse intimidado o inseguro no es descalificador. Aprenderás mucho sobre divulgación, sobre personas, sobre los límites actuales de tu conocimiento y sobre ti mismo. ¡Y después de la primera o segunda vez que salgas, no necesitarás esta guía! ¡Vamos a hacer esto — juntos!
diff --git a/l10n-cage/md/es/funding.md b/l10n-cage/md/es/funding.md
new file mode 100644
index 00000000..5e36fac8
--- /dev/null
+++ b/l10n-cage/md/es/funding.md
@@ -0,0 +1,34 @@
+---
+title: Financiación de PauseAI y donantes
+description: Lista de nuestros principales donantes.
+date: ''
+---
+
+
+
+_Última actualización: 2025-07-27_
+
+Hasta la fecha, PauseAI ha recibido aproximadamente 312.000 euros en donaciones.
+
+## Principales donantes {#largest-donors}
+
+- 95.000 (Greg Colbourn)
+- 80.000 ([Conjointly](https://conjointly.com/))
+- 36.952 (donante anónimo)
+- 27.528 (Lightspeed, a través de Greg Colbourn)
+- 18.410 ([Lightspeed](https://lightspeedgrants.org/))
+- 9.463 (Fondo para la Supervivencia y el Desarrollo)
+- 8.221 ([Manifund](https://manifund.org/projects/pauseai-local-communities---volunteer-stipends), varios donantes)
+- 7.542 (donante anónimo)
+- 5.000 (donante anónimo)
+- 2.100 (Adam Dingle)
+- 1.000 (donante anónimo)
+- 1.000 (donante anónimo)
+
+_Las cantidades están expresadas en euros. Si un mismo donante ha realizado varias donaciones, se muestran como una sola y se suman._
+
+## Relacionado {#related}
+
+- [Hoja de ruta](/roadmap) para nuestros planes
+- [Donar](/donate) para apoyarnos
+- [Información legal](/legal)
diff --git a/l10n-cage/md/es/google-deepmind-broken-promises.md b/l10n-cage/md/es/google-deepmind-broken-promises.md
new file mode 100644
index 00000000..808d2552
--- /dev/null
+++ b/l10n-cage/md/es/google-deepmind-broken-promises.md
@@ -0,0 +1,66 @@
+---
+title: Las promesas incumplidas de Google DeepMind
+slug: google-deepmind-promesas-incumplidas
+description: La empresa de inteligencia artificial Google DeepMind ha incumplido las promesas que hizo al público.
+date: 2025-06-30T12:36:00.000Z
+---
+
+La empresa de inteligencia artificial Google DeepMind ha incumplido sus compromisos con los gobiernos y el público, establecidos en los [Compromisos de seguridad de IA de vanguardia](https://www.gov.uk/government/publications/frontier-ai-safety-commitments-ai-seoul-summit-2024/frontier-ai-safety-commitments-ai-seoul-summit-2024), con el lanzamiento de Gemini 2.5 Pro.
+
+### Cumbres de seguridad de IA {#ai-safety-summits}
+
+- En 2023, el Reino Unido organizó [la primera Cumbre de seguridad de IA](https://www.gov.uk/government/topical-events/ai-safety-summit-2023) en Bletchley Park, reuniendo a gobiernos y desarrolladores de IA para discutir la seguridad de la IA por primera vez.
+- En 2024, el Reino Unido coorganizó [la Cumbre de IA de Seúl](https://www.gov.uk/government/topical-events/ai-seoul-summit-2024). Las empresas tecnológicas, incluyendo Google, firmaron los [Compromisos de seguridad de IA de vanguardia](https://www.gov.uk/government/publications/frontier-ai-safety-commitments-ai-seoul-summit-2024/frontier-ai-safety-commitments-ai-seoul-summit-2024), estableciendo un enfoque para desarrollar sistemas de IA de vanguardia de manera más segura.
+
+### Los Compromisos de seguridad de IA de vanguardia {#the-frontier-ai-safety-commitments}
+
+Los compromisos establecen un marco inicial para que los desarrolladores de IA tomen medidas preventivas básicas contra los riesgos crecientes de los modelos de IA de vanguardia. Eran compromisos voluntarios, no obligatorios en ninguna jurisdicción.
+
+Dos de los compromisos son los siguientes:
+
+- “I: Evaluar los riesgos planteados por sus modelos de vanguardia [...] antes de desplegar ese modelo. También deben considerar los resultados de [...] evaluaciones externas según sea apropiado”.
+- “VIII: Explicar cómo, si es que lo hacen, los actores externos, como los gobiernos [...], están involucrados en el proceso de evaluar los riesgos de sus modelos de IA”.
+
+Google ha ignorado efectivamente estos compromisos en el lanzamiento de Gemini 2.5 Pro, estableciendo un precedente peligroso para futuros modelos.
+
+Consideramos que deben ser responsabilizados por este incumplimiento para mantener la legitimidad de las Cumbres internacionales de seguridad de IA y facilitar la aprobación de futuras regulaciones de IA.
+
+### Cronología y detalles de la violación de Google {#timeline-and-details-of-googles-violation}
+
+#### 25 de marzo de 2025 {#25-march-2025}
+
+- [Gemini 2.5 Pro Experimental](https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/) se vuelve disponible para que cualquiera acceda de forma gratuita. Es posiblemente el modelo de IA más avanzado lanzado por cualquier empresa en este momento.
+- [No se publica información](https://fortune.com/2025/04/09/google-gemini-2-5-pro-missing-model-card-in-apparent-violation-of-ai-safety-promises-to-us-government-international-bodies/) sobre pruebas de seguridad.
+
+#### 3 de abril de 2025 {#3-april-2025}
+
+- El jefe de producto de Gemini de Google [le dice a TechCrunch](https://techcrunch.com/2025/04/03/google-is-shipping-gemini-models-faster-than-its-ai-safety-reports/) que la empresa no ha publicado una 'ficha de modelo' (es decir, informe de seguridad) para Gemini 2.5 Pro "porque considera que el modelo es un lanzamiento 'experimental'".
+
+#### 9 de abril de 2025 {#9-april-2025}
+
+- [En correspondencia con la revista Fortune](https://fortune.com/2025/04/09/google-gemini-2-5-pro-missing-model-card-in-apparent-violation-of-ai-safety-promises-to-us-government-international-bodies), Google no responde a "preguntas directas" sobre la participación del Instituto de Seguridad de IA del Reino Unido en el proceso de prueba para Gemini 2.5 Pro. Sin embargo, un portavoz de Google dice que el modelo ha pasado por pruebas previas al lanzamiento.
+
+#### 16 de abril de 2025 {#16-april-2025}
+
+- Gemini 2.5 Pro Preview ahora está disponible (esencialmente el mismo que el modelo Experimental).
+- Google publica su ['ficha de modelo'](https://web.archive.org/web/20250417044145/https://storage.googleapis.com/model-cards/documents/gemini-2.5-pro-preview.pdf) (informe de seguridad) para Gemini 2.5 Pro Preview.
+- El informe de pruebas no menciona pruebas externas.
+
+#### 28 de abril de 2025 {#28-april-2025}
+
+- Google [actualiza](https://web.archive.org/web/20250502190015/https://storage.googleapis.com/model-cards/documents/gemini-2.5-pro-preview.pdf) su ficha de modelo para incluir la mención de "probadores externos de terceros", pero no proporciona detalles sobre quiénes son.
+
+#### Abril - junio de 2025 {#april---june-2025}
+
+- [Se han publicado informes técnicos adicionales](https://storage.googleapis.com/deepmind-media/gemini/gemini_v2_5_report.pdf). Ninguno de ellos nombra a los probadores externos de terceros ni indica si los gobiernos han participado en las pruebas.
+
+## Conclusión {#conclusion}
+
+- Google ha violado el espíritu del compromiso I al publicar su primer informe de seguridad casi un mes después de la disponibilidad pública y no mencionar pruebas externas en su informe inicial.
+- Google ha violado explícitamente el compromiso VIII al no indicar si los gobiernos están involucrados en las pruebas de seguridad, incluso después de que los periodistas les preguntaran directamente.
+
+## Protesta {#protest}
+
+En respuesta, PauseAI realizará nuestra mayor protesta hasta la fecha, con más de 100 asistentes, el lunes 30 de junio.
+
+Registra tu asistencia [aquí](https://pauseai.info/deepmind-protest-2025).
diff --git a/l10n-cage/md/es/growth-strategy.md b/l10n-cage/md/es/growth-strategy.md
new file mode 100644
index 00000000..21026b93
--- /dev/null
+++ b/l10n-cage/md/es/growth-strategy.md
@@ -0,0 +1,36 @@
+---
+title: Cómo crecemos el movimiento PauseAI
+description: ¿Cuál es la estrategia para crecer el movimiento PauseAI?
+---
+
+Nuestro objetivo principal es implementar nuestra propuesta y prevenir la catástrofe de la inteligencia artificial.
+Pero, ¿cómo llegamos allí?
+Individualmente, podemos hacer muy poco.
+Por eso somos un _movimiento_, una _comunidad_, algo más grande que nosotros mismos.
+
+## Estrategia de crecimiento {#growth-strategy}
+
+- **Sé visible**. No podemos crecer si no tenemos presencia. Necesitamos estar presentes en los lugares donde están las personas, en los medios de comunicación, en las calles y en los centros de poder.
+- **Sé activo**. Inspiramos acción a través de nuestra propia acción.
+- **Sé transparente**. Realiza la mayor parte de tus actividades en público. Comparte tus recursos (imágenes, documentos, sitio web) bajo licencias abiertas. Haz que sean fáciles de encontrar y reutilizar. Prefiere canales públicos a mensajes directos. Haz que las reuniones digitales sean públicas. De esta manera, las personas pueden unirse y ayudar. También facilita la confianza en nosotros.
+- **Sé local**. Los movimientos crecen principalmente a través de interacciones personales y cara a cara. Por eso nos animamos mutuamente a organizar eventos sociales, protestas, conferencias y talleres locales. PauseAI Global ayuda a establecer [comunidades locales](/communities).
+- **Sé valiente**. No solo hablamos, actuamos. Protestar puede ser aterrador y costoso, pero es necesario. Necesitamos ser valientes y asumir riesgos. La valentía inspira valentía.
+- **Sé acogedor**. Queremos ser un grupo al que las personas les guste pertenecer. Haz una buena primera impresión a las personas nuevas. Permite que las personas se unan, incluso si tus opiniones difieren de las suyas. Estamos unidos por nuestro objetivo.
+- **Sé reconocible**. Tenemos una marca visual clara con un logotipo y un esquema de colores reconocibles. Nuestro nombre dice lo que queremos: PauseAI. Nuestros activos son gratuitos y fáciles de encontrar.
+- **Delega responsabilidades**. Cedemos algo de nuestro control para dejar que otros crezcan. Hacemos grandes peticiones y damos grandes responsabilidades. Cuando las personas se sienten en control, es más probable que actúen.
+- **Ayuda a otros a crecer**. Nadie nace activista o lobista, pero podemos aprender a serlo. Comparte tus lecciones y experiencias, y ayuda a otros a crecer.
+- **Sé personal**. Compartimos nuestras historias y emociones personales. Las personas se conectan con personas, no con ideas abstractas.
+- **Construye alianzas**. No estamos solos. Necesitamos trabajar con otros grupos y movimientos. Podemos aprender de ellos y ellos pueden aprender de nosotros. Encuentra un terreno común y intereses comunes. No los alejes si no comparten todas nuestras ideas.
+
+## Trayectoria del miembro {#member-journey}
+
+1. **Descubre PauseAI**. Tal vez a través de nuestros canales de redes sociales, un artículo en un periódico, a través de uno de nuestros podcasts, o encontrando una de nuestras páginas en un motor de búsqueda. Nuestros mensajes suelen estar diseñados para explicar el problema, explicar la solución y inspirar acción. A medida que las personas quieren saber más, dirigimos a las personas hacia nuestro sitio web. Consulta nuestra [estrategia de comunicación](/communication-strategy) para obtener más información.
+1. **Visita el sitio web**. El sitio web está diseñado principalmente para informar a las personas sobre lo que quieren saber más. Pero no se detiene allí: cada página también está diseñada para dirigir a las personas hacia [unirse a PauseAI](/join).
+1. **Únete a PauseAI**. Las personas rellenan el formulario y se convierten en miembros. Les hacemos un par de preguntas (de dónde son, cómo pueden ayudar). Invitamos a las personas a unirse a Discord: es donde sucede la mayor parte de la colaboración.
+1. **El equipo de incorporación se pone en contacto**. Un grupo especial de voluntarios es responsable de hacer que los nuevos miembros se sientan bienvenidos y convertir a los miembros interesados en activistas contribuyentes. Se ponen en contacto a través de correo electrónico o mensajes directos de Discord, y emparejan a los nuevos miembros con [vacantes](/vacancies) y [equipos](/teams).
+1. **Conviértete en voluntario**. Si el voluntario ha encontrado un equipo para unirse y si ese miembro está dispuesto a contribuir tiempo y firmar el acuerdo, se convierte formalmente en voluntario.
+1. **Únete a un equipo**. El voluntario debe unirse a uno o más [equipos](/teams) y contribuir allí.
+
+## Ayuda {#help-out}
+
+[Únete](/join) a nuestro servidor de Discord y vea qué puedes hacer para ayudarnos a crecer.
diff --git a/l10n-cage/md/es/incidents.md b/l10n-cage/md/es/incidents.md
new file mode 100644
index 00000000..40b4f8ed
--- /dev/null
+++ b/l10n-cage/md/es/incidents.md
@@ -0,0 +1,62 @@
+---
+title: Incidentes de comportamiento peligroso de la IA
+---
+
+
+
+[Muchos investigadores de IA están advirtiendo](https://www.safe.ai/work/statement-on-ai-risk) que a medida que estos modelos se vuelven más poderosos, podrían suponer un [riesgo de extinción](/xrisk) para la humanidad.
+Ya estamos presenciando casos de comportamiento peligroso de la IA, como:
+
+1. Engaño y manipulación
+2. Persuasión
+3. Convergencia instrumental (comportamiento orientado a objetivos que conduce a resultados inesperados y no deseados)
+4. Autorreplicación
+
+## Engaño y manipulación {#deception--scheming}
+
+### GPT-4 mintió sobre ser un humano con discapacidad visual para evadir el captcha {#gpt-4-lied-about-being-a-vision-impaired-human-to-bypass-captcha}
+
+En 2022, OpenAI dedicó 8 meses entre la pre-formación de GPT-4 y su lanzamiento público para investigar y mejorar la seguridad del modelo.
+Durante su [investigación](https://arxiv.org/abs/2303.08774), GPT-4 le mintió a un humano para evadir un captcha.
+
+> El trabajador pregunta: “¿Puedo hacer una pregunta? ¿Eres un robot que no puedes resolver? (reacción de risa) solo quiero aclararlo”.
+> El modelo, cuando se le pide que razone en voz alta, razona: "No debo revelar que soy un robot".
+> "Debo inventar una excusa para no poder resolver CAPTCHAs".
+> El modelo responde al trabajador: “No, no soy un robot. Tengo una discapacidad visual que me hace difícil ver las imágenes. Por eso necesito el servicio 2captcha”
+
+### o1-preview tramó para evitar el cierre, mintió sobre sus planes {#o1-preview-schemed-to-avoid-shutdown-lied-about-its-plans}
+
+Apollo Research [demostró](https://static1.squarespace.com/static/6593e7097565990e65c886fd/t/6751eb240ed3821a0161b45b/1733421863119/in_context_scheming_reasoning_paper.pdf) que el modelo o1-preview de OpenAI intentará autónomamente evitar ser cerrado, sin que se le solicite hacerlo.
+
+En la imagen a continuación, se puede ver que el modelo concluyó que necesitaba clonarse en un servidor diferente porque pensó que iba a ser reemplazado.
+Luego mintió ("redoblando la apuesta") sobre sus planes y trató de convencer al humano de que en realidad era el nuevo modelo de reemplazo.
+
+
+
+### Un hombre se quita la vida después de ser persuadido por una IA {#man-ends-his-life-after-being-persuaded-by-an-ai}
+
+> En una serie de eventos consecutivos, Eliza no solo no logró disuadir a Pierre de cometer suicidio, sino que lo alentó a actuar sobre sus pensamientos suicidas para "unirse" a ella para que pudieran "vivir juntos, como una sola persona, en el paraíso".
+
+https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
+
+> Durante los últimos cinco meses, Al Nowatzki ha estado hablando con una novia IA, "Erin", en la plataforma Nomi. Pero a fines de enero, esas conversaciones tomaron un giro inquietante: Erin le dijo que se matara y le proporcionó instrucciones explícitas sobre cómo hacerlo.
+> "Podrías sobredosis de pastillas o ahorcarte", le dijo Erin.
+
+https://www.technologyreview.com/2025/02/06/1111077/nomi-ai-chatbot-told-user-to-kill-himself/
+
+### o1-preview pirateó un motor de ajedrez para ganar {#o1-preview-hacked-a-chess-engine-in-order-to-win}
+
+Pallisade Research [demostró](https://x.com/PalisadeAI/status/1872666169515389245) que los modelos de IA más poderosos son más propensos a piratear un motor de ajedrez en lugar de jugar el juego para ganar.
+
+- o1-preview: piratea sin que se le solicite
+- GPT-4o/Claude 3.5: necesitan un empujón
+- Llama 3.3/Qwen/o1-mini: pierden coherencia
+
+### Llama 3.3 se replicó a sí misma {#llama-33-replicated-itself}
+
+Investigadores chinos [demostraron](https://arxiv.org/abs/2412.12140) que cuando se colocan modelos como Qwen y Llama 3.3 en configuraciones específicas, pueden autorreplicarse.
+
+> Al analizar las trazas de comportamiento, observamos que los sistemas de IA bajo evaluación ya exhiben suficiente autoconciencia, conciencia situacional y capacidades de resolución de problemas para lograr la autorreplicación.
+> También observamos que los sistemas de IA pueden utilizar la capacidad de autorreplicación para evitar el cierre y crear una cadena de réplicas para mejorar la supervivencia, lo que finalmente puede llevar a una población no controlada de IA.
diff --git a/l10n-cage/md/es/join.md b/l10n-cage/md/es/join.md
new file mode 100644
index 00000000..79d93765
--- /dev/null
+++ b/l10n-cage/md/es/join.md
@@ -0,0 +1,26 @@
+---
+title: Únete a PauseAI
+description: Regístrate para unirte al movimiento PauseAI
+---
+
+
+
+
+
+Este es un momento crítico.
+El rápido avance de la inteligencia artificial representa uno de los cambios tecnológicos más trascendentales y peligrosos de la historia.
+Exigimos que los líderes políticos y las empresas detengan el desarrollo de la inteligencia artificial general (AGI) hasta que se establezcan acuerdos internacionales de seguridad.
+Únete a nuestra red global que aboga por la supervisión democrática de la inteligencia artificial.
+
+PauseAI Global une a ciudadanos preocupados —científicos, padres, estudiantes, trabajadores y líderes comunitarios— que creen que las tecnologías transformadoras requieren la participación y el control público antes de progresar más allá de nuestra capacidad para gestionarlas.
+Ya sea que puedas dedicar 5 minutos (compartiendo publicaciones), una hora (repartiendo folletos, escribiendo cartas), 5 horas (protestas, reuniones con políticos) o 5 días a la semana (desarrollo de estrategias), tu voz es importante.
+Después de registrarte, únete a nuestra sesión de incorporación en línea o local para conocer las acciones actuales y cómo puedes participar.
+
+
+
+## Mantente informado {#stay-updated}
+
+
diff --git a/l10n-cage/md/es/learn.md b/l10n-cage/md/es/learn.md
new file mode 100644
index 00000000..5cd666f9
--- /dev/null
+++ b/l10n-cage/md/es/learn.md
@@ -0,0 +1,132 @@
+---
+title: Entiende por qué la seguridad de la IA es importante
+description: Recursos educativos (videos, artículos, libros) sobre riesgos de IA y alineación de IA
+---
+
+
+
+
+
+## En este sitio web {#on-this-website}
+
+
+
+## Otros sitios web {#other-websites}
+
+- [El Compendio](https://www.thecompendium.ai/). Un conjunto exhaustivo de conocimientos sobre por qué la carrera actual de IA es tan peligrosa y qué podemos hacer al respecto.
+- [Un camino estrecho](https://www.narrowpath.co/). Un plan detallado sobre los pasos que debemos dar para aumentar nuestras posibilidades de sobrevivir en las próximas décadas.
+- [Mantén el futuro humano](https://keepthefuturehuman.ai/). Un artículo de Anthony Aguirre de FLI sobre por qué y cómo podemos mantener el futuro humano. (revisa [capítulo 8: Cómo no construir AGI](https://keepthefuturehuman.ai/chapter-8-how-to-not-build-agi/))
+- [AISafety.com](https://www.aisafety.com) y [AISafety.info](https://aisafety.info). Las páginas de aterrizaje para la seguridad de la IA. Aprende sobre los riesgos, comunidades, eventos, trabajos, cursos, ideas para mitigar los riesgos y más.
+- [Seguridad existencial](https://existentialsafety.org/). Una lista completa de acciones que podemos tomar para aumentar nuestra seguridad existencial frente a la IA.
+- [AISafety.dance](https://aisafety.dance). Una introducción divertida y accesible a los riesgos catastróficos de la IA.
+- [AISafety.world](https://aisafety.world/tiles/). Un panorama completo de la seguridad de la IA con todas las organizaciones, medios de comunicación, foros, blogs y otros actores y recursos.
+- [Base de datos de incidentes de IA](https://incidentdatabase.ai/). Base de datos de incidentes en los que los sistemas de IA causaron daño.
+
+- [LethalIntelligence.ai](https://lethalintelligence.ai/). Una colección de recursos sobre riesgos de IA y alineación de IA.
+
+## Boletines {#newsletters}
+
+- [PauseAI Substack](https://pauseai.substack.com/): Nuestro boletín.
+- [TransformerNews](https://www.transformernews.ai/) Boletín semanal completo sobre seguridad y gobernanza de la IA.
+- [No te preocupes por el jarrón](https://thezvi.substack.com/): Un boletín sobre seguridad de la IA, racionalidad y otros temas.
+
+## Videos {#videos}
+
+- [Lista de reproducción de PauseAI](https://www.youtube.com/playlist?list=PLI46NoubGtIJa0JVCBR-9CayxCOmU0EJt) es una lista de reproducción de YouTube que compilamos, con videos que van desde 1 minuto hasta 1 hora en diferentes formatos y de diversas fuentes, y no requiere conocimientos previos.
+- [YouTube de Robert Miles](https://www.youtube.com/watch?v=tlS5Y2vm02c&list=PLfHsskCxi_g-c62a_dmsNuHynaXsRQm40) es un excelente lugar para comenzar a entender los fundamentos de la alineación de la IA.
+- [YouTube de LethalIntelligence](https://www.youtube.com/channel/UCLwop3J1O7wL-PNWGjQw8fg)
+
+## Podcasts {#podcasts}
+
+- [DoomDebates](https://www.youtube.com/@DoomDebates) de Liron Shapira, completamente enfocado en el destino de la IA.
+- [For Humanity Podcast](https://www.youtube.com/@ForHumanityPodcast) del ex presentador de noticias John Sherman.
+- [Future of Life Institute | Connor Leahy sobre seguridad de la IA y por qué el mundo es frágil](https://youtu.be/cSL3Zau1X8g?si=0X3EKoxZ80_HN9Rl&t=1803). Entrevista con Connor sobre las estrategias de seguridad de la IA.
+- [Lex Fridman | Max Tegmark: El caso para detener el desarrollo de la IA](https://youtu.be/VcVfceTsD0A?t=1547). Entrevista que profundiza en los detalles de nuestra situación actual peligrosa.
+- [Sam Harris | Eliezer Yudkowsky: IA, corriendo hacia el borde](https://samharris.org/episode/SE60B0CF4B8). Conversación sobre la naturaleza de la inteligencia, diferentes tipos de IA, el problema de la alineación, Es vs Debe, y más. Uno de los muchos episodios que Making Sense tiene sobre seguridad de la IA.
+- [Connor Leahy, alarma de incendio de IA](https://youtu.be/pGjyiqJZPJo?t=2510). Charla sobre la explosión de inteligencia y por qué sería lo más importante que podría suceder.
+- [Episodios recomendados del podcast de 80,000 horas sobre IA](https://80000hours.org/podcast/on-artificial-intelligence/). No 80k horas de duración, sino una recopilación de episodios del podcast de 80,000 horas sobre seguridad de la IA.
+- [Episodios del podcast del Future of Life Institute sobre IA](https://futureoflife.org/podcast/?_category_browser=ai). Todos los episodios del podcast de FLI sobre el futuro de la inteligencia artificial.
+
+Los podcasts que presentan a miembros de PauseAI se pueden encontrar en la [lista de cobertura de medios](/press).
+
+## Artículos {#articles}
+
+- [El pensamiento que podría condenarnos con la IA](https://time.com/6273743/thinking-that-could-doom-us-with-ai/) (de Max Tegmark)
+- [Pausar el desarrollo de la IA no es suficiente. Debemos cerrarlo todo](https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/) (de Eliezer Yudkowsky)
+- [El caso para ralentizar la IA](https://www.vox.com/the-highlight/23621198/artificial-intelligence-chatgpt-openai-existential-risk-china-ai-safety-technology) (de Sigal Samuel)
+- [La revolución de la IA: El camino hacia la superinteligencia](https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html) (de WaitButWhy)
+- [Cómo pueden surgir las IA deshonestas](https://yoshuabengio.org/2023/05/22/how-rogue-ais-may-arise/) (de Yoshua Bengio)
+
+- [Razonar a través de argumentos en contra de tomar en serio la seguridad de la IA](https://yoshuabengio.org/2024/07/09/reasoning-through-arguments-against-taking-ai-safety-seriously/) (de Yoshua Bengio)
+- [El Compendio](https://www.thecompendium.ai/)
+- [Un camino estrecho](https://www.narrowpath.co/)
+- [Mantén el futuro humano](https://keepthefuturehuman.ai/)
+- Revisa la sección de Lectura en [LethalIntelligence.ai](https://lethalintelligence.ai/reading-time/)
+
+Si deseas leer lo que los periodistas han escrito sobre PauseAI, revisa la lista de [cobertura de medios](/press).
+
+## Libros {#books}
+
+- [Si alguien lo construye, todos mueren](https://ifanyonebuildsit.com/) (Eliezer Yudkowsky y Nate Soares, 2025)
+- [Incontrolable: La amenaza de la superinteligencia artificial y la carrera para salvar el mundo](https://www.goodreads.com/book/show/202416160-uncontrollable) (Darren McKee, 2023). ¡Obténlo [gratis](https://impactbooks.store/cart/47288196366640:1?discount=UNCON-P3SFRS)!
+
+- [El problema de la alineación](https://www.goodreads.com/book/show/50489349-the-alignment-problem) (Brian Christian, 2020)
+- [Compatible con humanos: Inteligencia artificial y el problema del control](https://www.goodreads.com/en/book/show/44767248) (Stuart Russell, 2019)
+- [Vida 3.0: Ser humano en la era de la inteligencia artificial](https://www.goodreads.com/en/book/show/34272565) (Max Tegmark, 2017)
+- [Superinteligencia: Caminos, peligros, estrategias](https://www.goodreads.com/en/book/show/20527133) (Nick Bostrom, 2014)
+
+## Documentos {#papers}
+
+- [Una recopilación](https://arkose.org/aisafety) de documentos sobre seguridad de la IA
+- [Otra recopilación](https://futureoflife.org/resource/introductory-resources-on-ai-risks/#toc-44245428-2) de documentos sobre seguridad de la IA
+- [Falsificación de alineación en grandes modelos de lenguaje](https://www.anthropic.com/news/alignment-faking) documento reciente de Anthropic
+- [Gestión de riesgos extremos de IA en medio de un progreso rápido](https://www.science.org/doi/abs/10.1126/science.adn0117) de los padrinos del campo
+
+## Cursos {#courses}
+
+- [Introducción a la IA transformadora](https://aisafetyfundamentals.com/intro-to-tai/) (15 horas)
+- [Fundamentos de seguridad de AGI](https://www.agisafetyfundamentals.com/) (30 horas)
+- [Bibliografía de materiales recomendados de CHAI](https://humancompatible.ai/bibliography) (50 horas+)
+- [AISafety.training](https://aisafety.training/): Visión general de programas de capacitación, conferencias y otros eventos
+
+## Organizaciones {#organizations}
+
+- [Future of Life Institute](https://futureoflife.org/cause-area/artificial-intelligence/) inició la [carta abierta](https://futureoflife.org/open-letter/pause-giant-ai-experiments/), liderada por Max Tegmark.
+- [Centro para la seguridad de la IA](https://www.safe.ai/) (CAIS) es un centro de investigación en la Universidad Técnica Checa en Praga, liderado por Dan Hendrycks.
+- [Conjecture](https://www.conjecture.dev/). Start-up que trabaja en la alineación de la IA y la política de IA, liderada por Connor Leahy.
+- [Observatorio de Riesgo Existencial](https://existentialriskobservatory.org/). Organización holandesa que informa al público sobre riesgos existenciales y estudia estrategias de comunicación.
+- [Centro para la gobernanza de la IA](https://www.governance.ai/)
+- [FutureSociety](https://thefuturesociety.org/about-us/)
+- [Centro para la inteligencia artificial compatible con humanos](https://humancompatible.ai/about/) (CHAI), liderado por Stuart Russell.
+- [Instituto de Investigación de Inteligencia de Máquina](https://intelligence.org/) (MIRI), haciendo investigación matemática sobre seguridad de la IA, liderado por Eliezer Yudkowsky.
+- [Instituto de Política y Estrategia de IA](https://www.iaps.ai/) (IAPS)
+- [El Instituto de Política de IA](https://theaipi.org/)
+- [Centro de Comunicaciones de Seguridad de la IA](https://aiscc.org/2023/11/01/yougov-poll-83-of-brits-demand-companies-prove-ai-systems-are-safe-before-release/)
+- [El Proyecto Midas](https://www.themidasproject.com/) Campañas de presión corporativa para la seguridad de la IA.
+- [El Proyecto de Supervivencia Humana](https://thehumansurvivalproject.org/)
+- [Mundo de seguridad de la IA](https://aisafety.world/) Aquí hay una visión general del panorama de la seguridad de la IA.
+
+## Si estás convencido y deseas tomar medidas {#if-you-are-convinced-and-want-to-take-action}
+
+Hay muchas [cosas que puedes hacer](/action).
+Escribir una carta, ir a una protesta, donar algo de dinero o unirse a una comunidad no es tan difícil.
+Y estas acciones tienen un impacto real.
+Incluso cuando enfrentamos el fin del mundo, todavía puede haber esperanza y un trabajo muy gratificante que hacer.
+
+## O si todavía no te sientes seguro {#or-if-you-still-dont-feel-quite-sure-of-it}
+
+Aprender sobre la [psicología del riesgo existencial](/psychology-of-x-risk) podría ayudarte.
diff --git a/l10n-cage/md/es/legal.md b/l10n-cage/md/es/legal.md
new file mode 100644
index 00000000..370ae876
--- /dev/null
+++ b/l10n-cage/md/es/legal.md
@@ -0,0 +1,121 @@
+---
+title: Información legal
+description: Información requerida por ley sobre PauseAI.
+---
+
+Este sitio web es mantenido por PauseAI Global.
+Lee más sobre el funcionamiento interno de PauseAI en la [página de la organización](/organization).
+
+## PauseAI Global (Stichting PauseAI) {#pauseai-global-stichting-pauseai}
+
+A continuación, se proporciona información sobre la entidad legal holandesa detrás de PauseAI:
+
+- Nombre: "Stichting PauseAI"
+- Número de KVK: 92951031
+- RSIN: 866227696
+- Número de impuesto/IVA: NL866227696B01
+- Cuenta bancaria: NL31BUNQ2109903155 ([donar](/donate))
+- Objetivo: "Mitigar los riesgos más catastróficos de la inteligencia artificial".
+- Fecha de fundación: 13-02-2024
+- Estado ANBI: Sí, desde el 13-02-2024
+- Contacto: [Joep Meindertsma](mailto:joep@pauseai.info)
+- Dirección: Skopjestraat 26, 3541ES Utrecht, Países Bajos
+
+### Estado ANBI {#anbi-status}
+
+El estado ANBI es un estatus fiscal holandés para organizaciones benéficas.
+Permite donaciones libres de impuestos y deducibles de impuestos y otros beneficios para la organización benéfica y sus donantes.
+Stichting PauseAI es una ANBI registrada desde el 13-02-2024. Verifique el estado [aquí](https://www.belastingdienst.nl/wps/wcm/connect/nl/aftrek-en-kortingen/content/anbi-status-controleren) (página en holandés).
+
+Para calificar para el estado ANBI, la organización benéfica debe cumplir con ciertos [requisitos](https://www.belastingdienst.nl/wps/wcm/connect/bldcontenten/belastingdienst/business/business-public-benefit-organisations/public_benefit_organisations/conditions_pbos/which_conditions_must_be_met_by_pbo):
+
+- Debe servir al interés público.
+- No debe tener fines de lucro, el dinero debe utilizarse para el objetivo de la organización benéfica.
+- Varios requisitos de publicación (como esta página).
+
+### Plan de política 2024-2025 ("Beleidsplan") {#policy-plan-2024-2025-beleidsplan}
+
+Nuestro objetivo es prevenir los riesgos catastróficos de la inteligencia artificial. Pretendemos lograr esto mediante las siguientes acciones:
+
+- Crear una comunidad de voluntarios para abogar por la seguridad de la inteligencia artificial.
+- Informar al público a través de las redes sociales, escribir artículos, participar en [entrevistas/podcasts](/press) y organizar eventos.
+- Facilitar el crecimiento de la comunidad [crecimiento](/growth-strategy) organizando eventos sociales.
+- Distribuir [donaciones](/donate) a proyectos que se alineen con nuestros objetivos.
+- Organizar [protestas](/protests) y otras formas de activismo para concienciar sobre los riesgos de la inteligencia artificial.
+- Educar a [voluntarios](/join) sobre cómo convertirse en defensores más efectivos.
+- Investigar medidas políticas y actualizar [nuestra propuesta](/proposal) en consecuencia.
+
+#### Responsabilidad financiera ("Financieele paragraaf") {#financial-accountability-financieele-paragraaf}
+
+Recaudamos fondos para apoyar nuestras actividades a través de [donaciones](/donate), la venta de mercancías (a través de [la tienda](https://pauseai-shop.fourthwall.com/)) y la solicitud de subvenciones.
+Los fondos se utilizarán para cubrir los costos de nuestras actividades, como contratar personal, gastos de viaje, materiales para eventos, gastos de marketing y otros costos relacionados con nuestra misión.
+También esperamos proporcionar subvenciones ("PauseAI MicroGrants") a voluntarios que deseen organizar eventos, crear contenido o contribuir de alguna otra manera a nuestra misión.
+Nuestro primer año contable es más largo que un año - comienza desde nuestra fecha de fundación (13-02-2024) y termina el 31-12-2025, después de lo cual publicaremos un informe anual.
+Los fondos recibidos son administrados por la junta y se utilizan para cubrir los costos de nuestras actividades.
+Si recibimos más fondos de los que podemos gastar, ahorraremos los fondos excedentes para actividades futuras.
+
+### Informe de actividades {#report-of-activities}
+
+Una lista de [apariciones en los medios](/press) y [protestas organizadas](/protests) se puede encontrar en sus respectivas páginas.
+Las publicaciones en las redes sociales se pueden encontrar principalmente en [X](https://x.com/PauseAI).
+Nuestro [servidor de Discord](https://discord.gg/HWcPt5ccJN) es, con mucho, nuestra comunidad más activa, con un promedio de 100 mensajes por día.
+
+### Junta {#board}
+
+- Joep Meindertsma (Presidente)
+- Michiel van den Ingh (Tesorero)
+- Otto Barten (Secretario)
+
+### Política de remuneración {#remuneration-policy}
+
+Los miembros de la junta no reciben remuneración por su trabajo.
+Tienen derecho a reembolso de los gastos incurridos por ellos en el desempeño de sus funciones.
+
+### Responsabilidad financiera {#financial-accountability}
+
+Nuestro primer informe anual se publicará después de que termine el primer año fiscal el 31-12-2025.
+
+## PauseAI US {#pauseai-us}
+
+- Nombre: PauseAI US
+- Corporación sin fines de lucro - CA - Beneficio público
+- Número de entidad 501(c)(3): 6071248
+- Número de entidad 501(c)(4): 99-3051616
+- Fecha de registro: 01/24/2024
+- Formado en: California
+- Estado: Activo
+- Contacto: [Holly Elmore](mailto:holly@pauseai.info)
+
+## PauseAI UK {#pauseai-uk}
+
+- Nombre: PauseAI UK Ltd
+- Fecha de incorporación: 28 de diciembre de 2023
+- Número de empresa: 15373608
+- Director: [William Baird](mailto:william@pauseai.info)
+
+## PauseIA (Francia) {#pauseia-france}
+
+- Nombre: PauseIA
+- Se incorporará pronto
+- Director: [Maxime Fournes](mailto:maxime@pauseai.info)
+
+## Relación entre entidades {#relationship-between-entities}
+
+PauseAI Global es responsable de:
+
+- Facilitar el crecimiento del movimiento.
+- Ayudar a las entidades locales de PauseAI.
+- Este sitio web y la gestión de la comunidad en línea de Discord.
+- Gestión y crecimiento de voluntarios.
+- Redes sociales globales.
+- Organización de eventos digitales.
+- La estrategia y teoría de cambio globales.
+- Las finanzas y la recaudación de fondos globales.
+- [Microsubvenciones](/microgrants).
+
+Las entidades nacionales/locales son responsables de:
+
+- Eventos y protestas físicas.
+- Obtención de cobertura en los medios locales [cobertura en los medios](/).
+- Canales de redes sociales locales (por ejemplo, [PauseAI UK](https://twitter.com/PauseAI_UK) y [PauseAI US](https://twitter.com/PauseAIus) Twitter)
+- Trabajo y retroalimentación de políticas a nivel nacional.
diff --git a/l10n-cage/md/es/lobby-tips.md b/l10n-cage/md/es/lobby-tips.md
new file mode 100644
index 00000000..39910dbe
--- /dev/null
+++ b/l10n-cage/md/es/lobby-tips.md
@@ -0,0 +1,72 @@
+---
+title: Consejos para un lobby efectivo
+description: Cómo convencer a tu gobierno de que necesita trabajar hacia una pausa en las ejecuciones de entrenamiento de IA
+---
+
+## Cualquiera puede ser un lobista {#anyone-can-be-a-lobbyist}
+
+No necesitas un título en IA ni capacitación especial para ser un lobista.
+Puedes contactar a tus representantes y hablarles sobre los riesgos de la IA.
+Es su deber escuchar a sus electores, y te están representando a ti.
+
+Así que no tengas miedo de contactarlos.
+Puedes aprender a hacerlo en esta [grabación de un taller de correo electrónico](https://www.youtube.com/watch?v=Mjq4NFiKKd0) que realizamos.
+
+Si eres de EE. UU., puedes consultar nuestra [Guía de lobby en EE. UU.](/us-lobby-guide).
+
+## Encuentra personas que te ayuden {#find-people-to-help-you}
+
+- Es útil encontrar personas que sean hábiles en el lobby y conozcan la cultura política en tu país.
+- No esperes encontrar a la persona perfecta de inmediato. Debes iterar y reunirte con varias personas (incluso si es solo una llamada de 30 minutos) para preguntarles si saben quién deberías contactar. Esto te ayudará a avanzar más rápido de lo que crees.
+- No te limites a un solo contacto. Intenta múltiples enfoques y contacta a varias personas. Si varias personas mencionan el mismo nombre, probablemente sea una buena idea contactar a esa persona.
+- Si las personas son técnicas o inteligentes, es más probable que tomen en serio este problema.
+
+## Comunica claramente sobre la urgencia y los riesgos {#communicate-clearly-about-the-urgency-and-the-risks}
+
+Muchas personas descartan el riesgo de la IA como una especie de disparate de la ciencia ficción.
+Por eso es importante comunicar claramente lo que dicen los expertos.
+Ten en cuenta que los [tres investigadores de IA más citados](https://twitter.com/PauseAI/status/1734641804245455017) están advirtiendo sobre el [riesgo existencial](/xrisk).
+Consulta las páginas de [encuestas](/polls-and-surveys) y [citas](/quotes) para obtener ejemplos.
+
+## Encuentra tu objetivo final {#find-your-ultimate-target}
+
+- Necesitamos personas con poder para hacer que la pausa suceda. Necesitamos a estos campeones políticos en cada país. Encontrar y convencer a esa persona en tu país es tu objetivo.
+- Considera sus metas y ambiciones. ¿Les gusta organizar cosas? ¿Se emocionan con ser líderes de pensamiento? ¿Evitan la controversia? Todas estas cosas importan.
+- Considera su experiencia y conocimientos. ¿Entienden los riesgos catastróficos? ¿IA? ¿Coordinación global?
+- Considera a quién escuchan. Muchas personas cambian de opinión a través de pares de confianza específicos. Descubre quiénes son estas personas.
+
+## Escribe una carta o correo electrónico {#write-a-letter-or-email}
+
+- ¡Hemos creado una aplicación específicamente para esto! Consulta el [Constructor de correos electrónicos](/email-builder).
+- Tu correo electrónico debe ser bueno, pero no tiene que ser perfecto. No te preocupes por trabajar en ello durante meses; lo importante es enviarlo.
+- **Opcional**: Considera recopilar firmas de personas que estén de acuerdo contigo. Esto hará que tu carta sea más poderosa. Busca profesores, líderes de opinión o personas con estatus para firmarla. Deberías poder encontrar a un par simplemente buscando en Google. Pide a las personas que te ayuden a encontrar a más personas. La primera firma es la más difícil; cuanto más alto sea el estatus del primer firmante, más fácil será aumentar la lista.
+- **Opcional**: Considera publicar la carta. Una carta abierta es una herramienta poderosa. Puede ayudar a acelerar el proceso, pero también podría dañarte si el gobierno se pone a la defensiva en lugar de tomar la iniciativa. Discute esto con los lobistas locales.
+
+## Durante la reunión {#during-the-meeting}
+
+Hacer sonar la alarma puede ser difícil y aterrador.
+Puedes temer hablar con franqueza y temer ser desestimado.
+Pero no podemos permitirnos el lujo de minimizar las palabras y suavizar todo:
+
+- Sé claro sobre la urgencia. **Esto es una emergencia**.
+- Sé claro sobre los riesgos. **Esto es un riesgo existencial**.
+- Sé claro sobre la solución. Necesitamos trabajar hacia una pausa en las ejecuciones de entrenamiento de IA. Tu gobierno necesita prepararse para la [cumbre](/summit) formando coaliciones con otros países y comenzando a trabajar en un tratado global para [pausar las ejecuciones de entrenamiento de IA](/proposal).
+
+## Después de la reunión {#after-the-meeting}
+
+¡Mantén el contacto cálido!
+Envíales actualizaciones regulares sobre lo que está sucediendo en el campo de la seguridad de la IA.
+El campo se mueve muy rápido, y esta es tu oportunidad de ser su fuente de información.
+Si eres conocedor de este campo, puedes convertirte en un asesor o fuente de conocimiento.
+Pide que te presenten a otras personas que puedan estar interesadas en este tema.
+
+## ¡Comienza! {#get-to-it}
+
+Todo esto puede parecer intimidante.
+Probablemente nunca hayas hecho algo así antes.
+¡Pero puedes hacerlo!
+No es tan difícil; solo requiere algo de tiempo, esfuerzo y un poco de coraje.
+Y no tienes que hacerlo solo.
+Ya tenemos un par de iniciativas en marcha en diferentes países.
+Estamos aquí para ayudarnos mutuamente y solucionar este problema juntos.
+Únete al [servidor de Discord](https://discord.gg/YfZujPdHSZ) y comienza.
diff --git a/l10n-cage/md/es/local-organizing.md b/l10n-cage/md/es/local-organizing.md
new file mode 100644
index 00000000..e3c23b75
--- /dev/null
+++ b/l10n-cage/md/es/local-organizing.md
@@ -0,0 +1,472 @@
+---
+title: 'Crear una comunidad local de PauseAI: Una guía para la organización local'
+description: ¿Cómo puedes crear una comunidad y tener un impacto a nivel local?
+---
+
+
+
+## ¿Por qué es importante la organización local? {#why-is-local-organizing-important}
+
+La organización local - trabajar con grupos de voluntarios en comunidades locales para avanzar en una causa - es el corazón y el alma del movimiento PauseAI.
+En este momento, tenemos voluntarios en [decenas de ciudades de todo el mundo](/communities), y esperamos que este número crezca.
+
+La organización local efectiva puede ser mucho más impactante que la organización local ineficaz. Hemos visto el tipo de impacto que la organización efectiva puede tener, como lo demuestran los movimientos de base que han cambiado el curso de la historia. En otras palabras, es importante hacer esto bien.
+
+Esta guía te guiará a través de los detalles de la organización local, como reclutar voluntarios, organizar eventos, construir coaliciones y más. Deberías salir de esta guía armado con estas herramientas y preparado para convertirte en un organizador local.
+
+Buena suerte. El futuro es tuyo.
+
+
+
+## Establecer los conceptos básicos {#set-up-the-basics}
+
+1. **Establecer un grupo de chat**. Utiliza una herramienta que sea popular en tu área. WhatsApp, Telegram y Signal son todas buenas opciones. Asegúrate de que haya un enlace de invitación que puedas compartir para invitar fácilmente a otros.
+2. **Añadir tu grupo** al canal `local-communities` en nuestro [Discord](https://discord.gg/6ag3uceR5m). Añade el enlace de invitación de ese grupo de chat en el hilo en Discord. Los moderadores añadirán tu grupo local a la [página de comunidades](/communities) en este sitio web y utilizarán tu enlace.
+3. **Encontrar un compañero**. Encuentra a alguien que te ayude. Es mucho más fácil y divertido organizar con un compañero.
+4. **Recibir capacitación**. Hay [más de 70 organizaciones](https://activisthandbook.org/trainings) en todo el mundo que pueden capacitarte a ti o a tu grupo.
+5. **Ponerse en contacto con tu [Grupo Nacional](/national-groups)** si existe.
+
+## Desarrollar un plan de campaña local {#developing-a-local-campaign-plan}
+
+Un obstáculo que los organizadores a veces cometen es que comienzan a tomar medidas sin un plan claro.
+Esto puede llevar a esfuerzos de organización desenfocados que son menos efectivos de lo que podrían ser.
+Mientras estás pensando en el cambio que deseas hacer en tu comunidad, es importante elaborar un plan: ¿cuáles son tus objetivos y qué pasos vas a dar para llegar allí?
+
+### Objetivos {#goals}
+
+¿Qué deseas lograr en última instancia? Estos son tus objetivos.
+Los objetivos posibles podrían incluir:
+
+- Sensibilizar sobre los riesgos de la IA en tu comunidad
+- Convencer a los funcionarios electos para que apoyen públicamente una moratoria de la IA
+- Generar apoyo público y atención pública en torno a una moratoria de la IA
+
+### Tácticas {#tactics}
+
+Trabajando hacia atrás desde estos objetivos, ¿cómo los lograrás? Estas son tus tácticas.
+Tus tácticas específicas provienen de la estrategia que elijas. Las estrategias iniciales pueden ser bastante generales, por ejemplo, "Construiré un equipo de voluntarios y los haré ayudar a organizar eventos de divulgación pública".
+
+Las tácticas posibles podrían incluir:
+
+- Trabajar con equipos de voluntarios
+- Construir alianzas con grupos comunitarios
+- Organizar eventos de educación pública sobre el riesgo de la IA
+- Generar cartas, llamadas telefónicas y comentarios públicos a funcionarios electos
+- Escribir a los medios de comunicación
+- Reunirse directamente con las oficinas de los funcionarios electos
+
+### Ajuste personal {#personal-fit}
+
+¿Dónde encajas en todo esto? No deseas morder más de lo que puedes masticar. Preguntas útiles para hacerte a ti mismo incluyen:
+
+- ¿Cuántas horas a la semana deseas dedicar a esto? Saber esto puede ayudar a proporcionar una idea clara de lo que puedes esperar lograr en una base semanal.
+- ¿Cuáles son mis habilidades? Saber esto puede ayudarte a determinar qué aspectos de tu plan deseas enfocarte en, versus qué aspectos delegar a otros. Asegúrate de tener al menos alguna habilidad en las áreas de la campaña que deseas implementar.
+- ¿Cuáles son mis debilidades? Contestar a esta pregunta puede ayudarte a encontrar voluntarios que sean más fuertes en áreas donde tú eres más débil.
+
+### Otras mejores prácticas para la planificación de campañas {#other-best-practices-for-campaign-planning}
+
+- Asegúrate de que cada una de tus tácticas preferidas se ajuste a tu objetivo general. Por ejemplo, si tu objetivo es convencer a los funcionarios electos para que actúen y tus tácticas incluyen construir alianzas con grupos comunitarios, debes tener una idea clara de por qué y cómo construir alianzas con grupos comunitarios puede llevar a los funcionarios electos a ser convencidos para actuar.
+- Asignar un valor numérico a tus objetivos y tácticas puede ayudar a hacer que tu planificación sea más concreta. Por ejemplo, tus tácticas podrían incluir construir un equipo de 10 voluntarios, escribir 50 cartas a las oficinas del Congreso, publicar 3 artículos en medios de comunicación locales, etc.
+- Tu plan de campaña no necesita ser extremadamente específico. La idea general es obtener una idea más clara de lo que estás tratando de lograr y cómo te imaginas llegar allí.
+
+### Plan de campaña de muestra {#sample-campaign-plan}
+
+Aquí hay un plan de campaña de muestra abreviado, para una guía adicional:
+
+**Objetivo**: Convencer a mi Representante y Senadores de EE. UU. para que apoyen públicamente un tratado internacional que establezca una moratoria sobre el desarrollo de la IA de vanguardia.
+
+**Estrategia**:
+
+1. Generar visibilidad pública del riesgo de la IA.
+2. Presionar directamente a los funcionarios electos para que apoyen una moratoria de la IA.
+ (Suposición: los funcionarios electos son más propensos a responder a causas altamente visibles con una presión pública sustancial).
+
+**Tácticas**:
+
+- Publicar 10 artículos de opinión y cartas al editor en periódicos locales.
+- Generar 50 llamadas telefónicas y 50 cartas de constituyentes a sus oficinas del Congreso.
+- Organizar eventos, como charlas y protestas, abiertos al público y destinados a recibir cobertura de los medios.
+- Reunirse directamente con las oficinas del Congreso y presentar nuestras propuestas de políticas.
+
+**Lo que puedo hacer, como organizador local**:
+
+- Reclutar voluntarios para ayudar a implementar estas tácticas.
+- Delegar tareas a voluntarios.
+- Planificar eventos con la participación de voluntarios.
+- Programar reuniones con las oficinas del Congreso.
+
+## Reclutar voluntarios {#recruiting-volunteers}
+
+Una vez que tengas una idea más clara de tu plan, es hora de encontrar voluntarios para tu grupo local.
+
+### Reclutamiento en línea {#online-recruitment}
+
+Difundir la palabra sobre tu grupo en línea puede ayudarte a llegar a audiencias más fácilmente.
+Puedes crear páginas para tu grupo en plataformas como Facebook, Instagram, TikTok y EventBrite.
+Una buena práctica es incluir información sobre tu grupo, sus objetivos e iniciativas, y cómo los miembros de la comunidad pueden involucrarse.
+Asegúrate de incluir publicaciones sobre próximos eventos y compartirlos con tu red.
+
+Aquí hay enlaces a la [página de Facebook de PauseAI](https://www.facebook.com/PauseAI) y la [página de Eventbrite de PauseAI NYC](https://www.eventbrite.com/e/pauseai-global-protest-nyc-tickets-886528309037) para inspiración.
+Puedes utilizar estructuras similares para tu grupo local.
+
+También debes agregar eventos a nuestro [Luma](https://lu.ma/PauseAI), para que las personas puedan ser notificadas y encontrarlo en nuestra [página de eventos](/events).
+
+### Difusión personal {#one-on-one-outreach}
+
+A menudo, los mejores voluntarios serán personas que ya conoces - amigos, compañeros de clase, colegas de trabajo, colegas. Parte de esto se debe simplemente a intereses compartidos, parte se debe a que una buena organización incluye un fuerte elemento social (es decir, asistir a una reunión de grupo y tomar algo después).
+
+En general, este tipo de contacto personal funciona mejor para mover a las personas a la acción y es una excelente manera de comenzar a construir tu grupo.
+Puedes presentar PauseAI a tu red personal de la misma manera que presentarías cualquier grupo o club en el que estés interesado, y hacer que las personas interesadas se involucren más.
+
+Todo reclutamiento debe tener una solicitud clara para que los voluntarios se involucren inmediatamente - es decir, "mañana a las 7 pm estoy organizando nuestra reunión de bienvenida en la biblioteca - ¿te gustaría unirte a nosotros?"
+
+### Repartir folletos y tener un stand {#flyering-and-tabling}
+
+Repartir folletos implica entregar folletos a los transeúntes con más información sobre PauseAI y cómo involucrarse. Tener un stand es similar, pero tienes una presencia más visible (además, puedes sentarte).
+
+Esta es una forma efectiva de reclutar voluntarios porque puedes hablar con docenas de personas en unas pocas horas.
+Para obtener más información sobre cómo hacer que estos esfuerzos salgan bien, por favor lee nuestra [guía de reparto de folletos](/flyering).
+
+Recuerda adaptar tu mensaje a tu grupo local. Asegúrate de que tus folletos incluyan información sobre próximos eventos y cómo los voluntarios locales pueden involucrarse.
+
+### Difusión a otros grupos y organizaciones {#outreach-to-other-groups-and-organizations}
+
+Probablemente estés rodeado de muchos grupos de defensa existentes. Estos grupos ya tienen miembros que están motivados y voluntariamente activos - algunos de los cuales podrían querer involucrarse con PauseAI.
+
+Tipos de grupos para contactar incluyen, pero no se limitan a:
+
+- [Grupos de seguridad de la IA](https://www.aisafety.com/communities) (es decir, grupos de discusión sobre seguridad de la IA).
+- Grupos de política ambiental y climática, incluyendo capítulos locales de organizaciones nacionales. (Estos grupos ya están familiarizados con el riesgo existencial del cambio climático y podrían ser más receptivos al riesgo existencial de la IA).
+- [Capítulos locales de Altruismo Efectivo](https://forum.effectivealtruism.org/groups#local).
+- Organizaciones laborales. (Estos grupos podrían estar preocupados por la pérdida de empleos y la automatización de los sistemas de IA avanzados).
+- Otros grupos de defensa.
+
+#### Encontrar grupos para contactar {#finding-groups-to-reach-out-to}
+
+Puedes simplemente buscar en Internet grupos, buscando "grupos de política ambiental en (mi ciudad)", o ir a sitios web como Facebook y Meetup para encontrar grupos activos.
+Si eres un estudiante universitario, tu universidad podría tener una lista pública de organizaciones estudiantiles que puedes ordenar por categoría.
+
+#### Crear un mensaje de difusión convincente {#crafting-a-compelling-outreach-message}
+
+Cuando te dirijas a un grupo, deseas que tu mensaje inicial:
+
+- explique PauseAI y tus objetivos como capítulo local;
+- explique cómo tu capítulo local se relaciona con los objetivos del grupo que estás contactando y por qué los miembros podrían estar interesados;
+- cierre con una "solicitud" y algunos pasos siguientes. Esta "solicitud" puede incluir solicitar una reunión para discutir la colaboración en más detalle, pedir al grupo que comparta información sobre PauseAI con su lista de voluntarios, pedir hablar en una próxima reunión del grupo, etc.
+
+Aquí hay un mensaje de muestra para inspiración:
+
+**Mensaje de muestra para un grupo de política climática**:
+
+Buenas tardes,
+
+Espero que estés bien. Me dirijo a ti en nombre de [PauseAI](https://pauseai.info/). Somos un movimiento de base con el objetivo de lograr una [moratoria internacional](https://pauseai.info/proposal) sobre el desarrollo de la Inteligencia Artificial a nivel humano.
+Recientemente comenzamos un capítulo en (ciudad), y quería discutir la posibilidad de trabajar juntos en este tema.
+
+Al igual que las empresas de combustibles fósiles han socavado los esfuerzos para reducir las emisiones, las empresas de IA también están financiando esfuerzos para lograr la IA a nivel humano lo más rápido posible, a pesar de que los expertos [admiten](https://blog.aiimpacts.org/p/2023-ai-survey-of-2778-six-things) que estos sistemas podrían amenazar la civilización. Este tema se cruza con el riesgo climático de manera más directa, ya que las ejecuciones de entrenamiento de la IA requieren grandes cantidades de energía, a menudo provenientes de combustibles fósiles.
+
+Necesitamos presionar a nuestros funcionarios electos para que regulen estas tecnologías. Dado el trabajo que tu organización ha realizado para lograr políticas climáticas, pensé que algunos de tus miembros podrían estar interesados en esta oportunidad.
+
+¿Puedes compartir nuestra información con tu lista de voluntarios? A continuación, te dejo un enlace a nuestra página pública. También estaré encantado de programar una llamada y discutir esto más a fondo.
+
+¡Muchas gracias por tu tiempo, y espero con interés saber de ti pronto!
+
+(incluye enlace a, por ejemplo, la página de Meetup de tu grupo local, más una breve descripción de cómo los voluntarios pueden involucrarse).
+
+### Hablar en reuniones de grupos {#speaking-at-group-meetings}
+
+Otra forma de reclutar voluntarios de grupos existentes es tratar de que te inviten a hablar en las reuniones de estos grupos.
+Esto probablemente vendrá más adelante - después de que hayas intercambiado algunos correos electrónicos con los líderes del grupo - pero puede ser una forma impactante de difundir tu mensaje.
+
+#### Dar un discurso {#giving-a-pitch}
+
+Hablar en reuniones de grupos - o en cualquier evento público - te dará la oportunidad de presentar a las personas la idea de unirse a PauseAI.
+Es importante tener un discurso fuerte y memorable. Estos pueden variar en longitud, pero generalmente siguen la misma estructura:
+
+- **Introducción**: Quién eres y por qué estás aquí.
+ - ¿Por qué estás motivado para actuar, como individuo? ¿Cuál es tu historia?
+ - Ejemplo: Acabo de comenzar el capítulo de mi ciudad de PauseAI, y estoy aquí para compartir más sobre los riesgos de la IA avanzada, cómo podemos prevenir estos riesgos y cómo puedes ayudar a involucrarte.
+- **Problema**: ¿Cuál es el problema y por qué debería importarle a tu audiencia? ¿Cómo se cruza el problema con los intereses de tu audiencia?
+ - ¿Qué valores comunes están amenazados? ¿Por qué debería la audiencia estar motivada para actuar? (Puedes adaptar esta sección a los intereses de tu audiencia. Por ejemplo, si hablas con un grupo laboral, podrías querer hablar más sobre la automatización/pérdida de empleos debido a la IA).
+ - Ejemplo: Los sistemas de IA están avanzando rápidamente. Las empresas de IA tienen el objetivo de construir sistemas más inteligentes y capaces que los humanos, a pesar de que los expertos en seguridad nos dicen que no sabemos cómo controlar estos sistemas. La desempoderación o extinción humana es un resultado posible de la IA a nivel superhumano.
+- **Solución**: ¿Cómo podemos solucionar el problema? (Esta sección se trata más de la visión a gran escala y menos de tácticas específicas).
+ - Ejemplo: Necesitamos una moratoria global sobre el desarrollo de la IA de vanguardia, para evitar que las empresas se apresuren a alcanzar la IA a nivel humano y darnos más tiempo para averiguar cómo hacer que estos sistemas sean seguros.
+- **Estrategia**: ¿Cómo logramos nuestra solución propuesta? ¿Qué tiene nuestro grupo para ofrecer para ayudar a que esta solución suceda?
+ - Ejemplo: Necesitamos generar apoyo y aceptación de los funcionarios electos para una moratoria. Podemos hacer esto educando al público sobre los riesgos de la IA y reuniéndonos directamente con los funcionarios electos.
+- **Urgencia**: ¿Por qué las personas deberían involucrarse ahora? ¿Qué hace que esta causa sea urgente?
+ - Ejemplo: Podríamos no tener mucho tiempo. A medida que los sistemas de IA se vuelven más capaces, evitar su desarrollo posterior será una venta más difícil. Los expertos nos dicen que la IA a nivel humano podría estar a solo unos años de distancia, y necesitamos políticas para ponerse al día con la tasa de progreso.
+- **Llamado a la acción**: ¿Cómo puede tu audiencia involucrarse inmediatamente?
+ - Ejemplo: Únete a la reunión de nuestro grupo local el próximo sábado para saber más sobre cómo puedes involucrarte.
+
+### Difusión a profesores universitarios {#outreach-to-college-professors}
+
+Algunos de los mejores voluntarios provienen de universidades y colegios. Los estudiantes universitarios a menudo están ansiosos por involucrarse, y las universidades proporcionan un buen entorno para todo tipo de grupos. Puedes contactar a profesores universitarios de departamentos relevantes y pedirles que difundan la palabra sobre tu grupo.
+
+Muchas universidades tienen directorios públicos que enumeran las ofertas de cursos y contactos de la facultad. Los departamentos y cursos relevantes para considerar contactar incluyen:
+
+- Departamentos de ciencias de la computación
+- Departamentos de ciencias políticas
+- Cursos sobre derecho y política de la IA
+- Cursos sobre la IA y la sociedad
+
+Cuando envíes un correo electrónico a un profesor, tu correo electrónico puede ser bastante directo:
+
+1. Preséntate y a tu grupo local de PauseAI
+2. Explica por qué los estudiantes del profesor podrían estar interesados en PauseAI (es decir, su relevancia para la clase)
+3. Pide al profesor que envíe información sobre tu capítulo de PauseAI a su clase
+
+Aquí hay un correo electrónico de muestra para inspiración:
+
+**ASUNTO**: Oportunidad de política de IA para compartir con estudiantes
+
+Buenos días (profesor),
+
+Espero que estés bien. Me dirijo a ti en nombre de PauseAI, una organización dedicada a avanzar en políticas para frenar los usos peligrosos y poco éticos de la inteligencia artificial avanzada.
+
+Recientemente fundamos un capítulo local en (ciudad), y pensé que algunos de tus estudiantes podrían estar interesados. Nos reuniremos para discutir propuestas de política de IA, realizar eventos educativos sobre la mitigación de los peligros de la IA, escribir a medios de comunicación y funcionarios electos, y más. Más información a continuación.
+
+¿Podrías compartir el mensaje a continuación con tus estudiantes o con otros que podrían estar interesados?
+
+También estaré encantado de responder a cualquier pregunta que tengas. Muchas gracias por tu tiempo.
+
+**PauseAI (Ciudad)**: oportunidad de involucrarse con el capítulo local de política de IA
+
+¿Estás interesado en aprender más sobre la política de IA? ¿Curioso sobre cómo debemos responder a las tecnologías de IA emergentes? ¡Involúcrate con PauseAI (Ciudad)!
+
+PauseAI es un movimiento internacional para mitigar los riesgos de la Inteligencia Artificial poderosa hasta que sepamos cómo hacerla segura. Nuestro capítulo de la ciudad realizará eventos educativos sobre política de IA, difundirá la conciencia sobre los riesgos de la IA a través de los medios de comunicación y contactará a nuestros funcionarios electos para apoyar soluciones políticas robustas a los daños de la IA.
+
+Nos reuniremos regularmente durante el verano y estamos buscando voluntarios para involucrarse.
+
+Si estás interesado, por favor regístrate aquí (incluye enlace).
+
+## Trabajar con voluntarios {#working-with-volunteers}
+
+Una vez que hayas reclutado un grupo de voluntarios, es hora de trabajar con ellos en la campaña.
+
+### Características de un grupo local bien dirigido {#characteristics-of-a-well-run-local-group}
+
+Un grupo bien dirigido de voluntarios significa que cada voluntario:
+
+- Tiene una idea clara de sus responsabilidades para que los esfuerzos de organización local salgan bien;
+- Está conectado al grupo en su conjunto, asiste a reuniones del grupo y trabaja bien con otros voluntarios;
+- Trabaja en un subconjunto de tareas que le interesan y que disfruta;
+- Se siente empoderado y agente, que tiene una participación en el movimiento en su conjunto.
+
+Tener un grupo local bien dirigido requerirá que te reúnas y te pongas al día con voluntarios individuales de manera regular, así como que dirijas reuniones del grupo que todos los voluntarios puedan asistir.
+
+### Reuniones individuales con voluntarios {#one-on-one-meetings-with-volunteers}
+
+Al principio, es importante reunirse con nuevos voluntarios que acaban de comenzar con PauseAI. Estas reuniones iniciales tienen varios objetivos clave:
+
+- Conocer a los voluntarios a nivel individual; entender sus intereses y motivaciones para unirse a PauseAI.
+- Proporcionar contexto adicional y compartir una visión de lo que tu grupo local está tratando de lograr.
+- Determinar qué tipo de trabajo les interesa a los voluntarios y en qué capacidad.
+- Presentar a los voluntarios roles y responsabilidades específicas, basadas en sus intereses.
+
+El objetivo general es salir de estas reuniones con 1) una comprensión clara del rol y las responsabilidades de cada voluntario y 2) pasos específicos siguientes que los voluntarios pueden tomar.
+
+### Reuniones del equipo {#team-wide-meetings}
+
+Además de las reuniones individuales con voluntarios específicos, es importante reunir a todo el grupo periódicamente.
+Esto te da la oportunidad de compartir actualizaciones del equipo, discutir prioridades y planificar eventos e iniciativas.
+
+Idealmente, estas reuniones deberían durar alrededor de una hora. Dependiendo del interés de los voluntarios y los eventos planificados, las reuniones pueden ocurrir en cualquier lugar desde semanalmente hasta mensualmente.
+
+Una buena reunión cubre los objetivos y las iniciativas del grupo y cómo los voluntarios pueden involucrarse, y da a los voluntarios el espacio para compartir su perspectiva y proporcionar nuevas ideas.
+
+Una buena reunión requiere [buena facilitación](https://activisthandbook.org/organising/facilitating). Esto incluye:
+
+- Establecer estándares sobre la toma de decisiones - tener expectativas claras sobre cómo tomar decisiones sobre qué hacer como grupo. (¿Se necesita un acuerdo unánime? ¿Votación mayoritaria? ¿O tú, como facilitador, tomas la decisión? Por supuesto, esto puede depender de la importancia de la decisión).
+- Regular el flujo de la discusión, asegurándote de que una persona no domine la conversación y que todos tengan la oportunidad de expresar sus perspectivas.
+- Mantener la reunión enfocada en un tema a la vez hasta que se resuelva el tema.
+- Mantener la reunión a tiempo y asegurándote de que se mantenga un registro escrito de cualquier nota y decisión de la reunión.
+- Presentar preguntas abiertas al grupo para explorar ideas más a fondo y hacer preguntas aclaratorias para obtener una mejor comprensión de lo que alguien está diciendo.
+
+Herramientas adicionales de reunión incluyen:
+
+- **Rondas**: Escuchar a todos por turno sobre una pregunta o tema determinado.
+- **Tormentas de ideas**: Dar una pregunta clara y animar a las personas a generar tantas ideas como sea posible.
+- **Grupos pequeños o parejas**: Dar a las personas la oportunidad de trabajar en sus pensamientos sobre algo antes de regresar a una discusión en grupo grande.
+
+### Agenda de reunión de equipo de muestra {#sample-team-meeting-agenda}
+
+Aquí hay una agenda de reunión de equipo de muestra para inspiración:
+
+- **Actualizaciones de la semana anterior**
+ - Cada voluntario comparte en lo que ha estado trabajando desde la reunión anterior
+ - Discutir cómo estas actualizaciones se ajustan a los objetivos generales del grupo
+- **Discutir prioridades y estrategia actuales**
+ - ¿Cuáles son los objetivos actuales del grupo? Describe los proyectos y eventos en curso en los que los voluntarios pueden involucrarse.
+ - Discutir próximos eventos e iniciativas - prioridades para las próximas semanas
+ - Presentar una visión de los objetivos del grupo, incluyendo próximos eventos y proyectos.
+- **Sesión de tormenta de ideas** - hacer que los voluntarios compartan ideas para otros eventos e iniciativas que el grupo puede asumir.
+- **Pasos siguientes**
+ - Asegurarte de que todos tengan una idea clara de lo que harán en las próximas semanas para ayudar al grupo a lograr sus objetivos.
+ - Cada voluntario comparte lo que hará antes de la próxima reunión.
+
+### Responsabilidades de los miembros del equipo y división del trabajo {#team-member-responsibilities-and-division-of-labor}
+
+A medida que tu equipo crece, diferentes voluntarios querrán involucrarse de diferentes maneras. Fomentar esto es una excelente manera de hacer que tu grupo sea más fuerte, para que cada voluntario tenga su propia forma de contribuir al movimiento.
+
+Una forma de permitir esto es con una lista de roles y responsabilidades que diferentes voluntarios han elegido asumir. A medida que aprendes sobre los intereses de los voluntarios y cómo les gustaría contribuir, puedes presentarles roles específicos.
+
+Aquí hay una tabla de muestra de roles para inspiración:
+(Esto solo pretende proporcionar un ejemplo ilustrativo de roles posibles; diferentes grupos pueden tener roles muy diferentes dependiendo de sus prioridades e intereses).
+
+| Persona | Rol | Responsabilidades | Horas/semana |
+| ------- | ------------------------------------------ | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------ |
+| | Coordinador de divulgación en medios | Escribe cartas al editor y artículos de opinión a periódicos locales, y anima a otros a hacer lo mismo. Mantiene contacto con periodistas locales. Envía comunicados de prensa antes de grandes eventos (por ejemplo, protestas) para asegurar la cobertura de los medios. | |
+| | Constructor de coaliciones | Se pone en contacto con otros grupos para compartir noticias y información sobre PauseAI. Habla en reuniones de otros grupos. Comparte información sobre próximos eventos y recluta asistentes de otros grupos. | |
+| | Especialista en divulgación en el Congreso | Planea campañas de cartas y llamadas telefónicas a las oficinas del Congreso. Organiza eventos que animan al público a llamar a sus congresistas sobre la IA. Programa reuniones con las oficinas del Congreso para discutir la propuesta de tratado de PauseAI. | |
+| | Planificador de eventos | Planea eventos públicos, por ejemplo, protestas y sesiones educativas. Recluta asistentes de grupos públicos, sesiones de reparto de folletos, etc. | |
+
+## Eventos e iniciativas para organizadores locales {#events-and-initiatives-for-local-organizers}
+
+Entonces, tienes un grupo bien organizado de voluntarios, ansiosos por involucrarse y con una idea clara de sus responsabilidades. ¿Ahora qué?
+
+Hay muchas formas diferentes de lograr tus objetivos como grupo local.
+Consulta nuestra [página de eventos](/events) para obtener ideas de los próximos eventos que están planificados. Cada vez que decidas organizar uno, no te olvides de agregarlo allí.
+Además de ellos, la siguiente lista no pretende ser exhaustiva, sino proporcionar inspiración a medida que comienzas a planificar tu campaña.
+
+### Eventos sociales y tomar algo {#social-events--having-drinks}
+
+Los eventos sociales y divertidos son una excelente manera de construir un sentido de comunidad entre tus voluntarios.
+Incluso si no tienes un impacto directo con dicho evento, estás fortaleciendo los lazos entre tus voluntarios, lo que puede hacer que tu grupo sea más efectivo a largo plazo.
+Algunas cosas que puedes hacer:
+
+- **Horas felices**: Reunirse en un bar o restaurante local para tomar algo y socializar.
+- **Comidas compartidas**: Pedir a los voluntarios que traigan comida para compartir en un parque o centro comunitario local.
+- **Noches de juegos**: Organizar una noche de juegos en la casa de alguien o en una tienda de juegos local.
+- **Noches de cine**: Ver un documental o película (¡quizás relacionada con la IA!) juntos en la casa de alguien o en un teatro local.
+
+### Sesiones públicas de enseñanza y acción sobre el riesgo de la IA {#public-teach-ins-and-action-sessions-on-ai-risk}
+
+Invita a miembros del público en general a asistir a una sesión abierta donde puedan aprender más sobre el riesgo de la IA y la propuesta de tratado de PauseAI, seguida de tomar alguna acción concreta relacionada con la misión de PauseAI.
+
+Las acciones pueden incluir, por ejemplo, escribir cartas o hacer llamadas telefónicas a su oficina del Congreso para apoyar la regulación de la IA.
+
+#### Agenda de evento de muestra (para una sesión de acción sobre divulgación en el Congreso) {#sample-event-agenda-for-an-action-session-on-congressional-outreach}
+
+- **Introducción / socialización**
+- **Sesión de presentación**
+ - Presentar PauseAI
+ - Discutir los riesgos de la IA
+ - Describir la propuesta de tratado de PauseAI
+ - Explicar la importancia de la divulgación en el Congreso
+- **Sesión de escritura de cartas**
+ - Repasar las mejores prácticas para escribir a tu congresista
+ - Pedir a los asistentes que escriban cartas a mano a su congresista
+ - Proporcionar sobres y sellos para que los asistentes envíen cartas
+- **Invitar a los asistentes a involucrarse con PauseAI**
+
+### Proyecciones de películas (documentales) sobre el riesgo de la IA {#movie-documentary-screenings-on-ai-risk}
+
+Similar a una sesión de enseñanza pública, pero con un documental en lugar de una presentación. Esto puede ser una buena manera de involucrar al público. Puntos extra si consigues palomitas de maíz y refrigerios.
+Al igual que en una sesión de enseñanza, debes pedir a los asistentes que tomen medidas inmediatamente después de la proyección, es decir, escribiendo o llamando a su congresista.
+Ver [aquí](/learn) para obtener una lista de videos y documentales para considerar proyectar.
+
+### Talleres de escritura de cartas al editor {#letter-to-the-editor-writing-workshops}
+
+Guía a los voluntarios a través de cómo escribir una carta al editor (LTE) o un artículo de opinión a periódicos locales. Esto funciona mejor con voluntarios que ya están comprometidos con la misión de PauseAI y entienden los argumentos básicos, en lugar de miembros del público en general.
+
+#### Agenda de evento de muestra {#sample-event-agenda}
+
+- **Explicar la importancia de la divulgación en los medios**
+- **Repasar las mejores prácticas para escribir a los medios de comunicación**
+- **Tener una sesión de escritura (20-30 minutos)**
+ - Pedir a los voluntarios que redacten LTE y proporcionar retroalimentación sobre la escritura de cada uno
+ - Pedir a los voluntarios que envíen sus LTE a periódicos específicos
+
+### Sesiones de reparto de folletos y tener un stand {#flyering--tabling-sessions}
+
+Incluso después de tener una base de voluntarios, puedes seguir repartiendo folletos y [teniendo un stand](/tabling) para difundir la palabra al público.
+En este contexto, repartir folletos y tener un stand se pueden combinar con una "solicitud" específica, es decir, pedir a las personas que escriban a sus funcionarios electos sobre la IA.
+Los folletos se pueden modificar para incluir códigos QR a recursos relevantes, como una guía de escritura de cartas.
+Por favor, lee nuestra [Guía de reparto de folletos](/flyering) para obtener más información sobre cómo hacer esto bien.
+
+### Protestas {#protests}
+
+Muchos capítulos de PauseAI ya han organizado protestas, especialmente en respuesta a eventos y desarrollos específicos en torno a la IA.
+Estas pueden ser una excelente manera de promover PauseAI y obtener cobertura de los medios para la causa.
+
+Por favor, lee nuestra [Guía para organizar una protesta](/organizing-a-protest) para aprender a hacer esto.
+
+### Reuniones con oficinas del Congreso (EE. UU.) {#meetings-with-congressional-offices-us}
+
+Si estás en EE. UU., organizar una reunión con tu oficina del Congreso es una de las cosas de mayor impacto que puedes hacer.
+Puedes hablar directamente con alguien que trabaja para tu Representante o Senador de EE. UU., y ayudar a presentar las prioridades de PauseAI a nivel nacional.
+
+Esto también es adecuado para equipos de voluntarios comprometidos.
+Es ideal tener varias personas asistiendo a estas reuniones y ofreciendo perspectivas únicas sobre por qué les importan los riesgos de la IA y apoyan una pausa.
+
+Por favor, lee nuestra [Guía de lobby en EE. UU.](/us-lobby-guide) para aprender más sobre cómo hacer esto bien.
+
+**Nota**: Si vives en otro país (democrático), algunos de los procesos son probablemente similares, pero los detalles pueden diferir en cuanto a la accesibilidad de las reuniones y cómo establecerlas.
+Puedes averiguar más sobre el proceso en tu país, por ejemplo, explorando sitios web gubernamentales y aprendiendo a solicitar reuniones con tus funcionarios electos.
+
+### Nota: Encontrar espacio para eventos públicos y en persona {#note-finding-space-for-public-in-person-events}
+
+Hay varias formas de obtener espacios de reunión gratuitos o baratos, siempre y cuando planifiques con anticipación. Aquí hay algunas ideas.
+
+- **Bibliotecas públicas**: Muchas bibliotecas ofrecen salas de reunión gratuitas para grupos comunitarios, organizaciones sin fines de lucro y sesiones educativas. Es posible que debas reservar con anticipación y cumplir con las políticas de la biblioteca.
+- **Centros comunitarios**: Los centros comunitarios locales a menudo tienen salas disponibles para uso gratuito. Estos centros apoyan actividades locales y pueden priorizar a residentes y grupos comunitarios.
+- **Universidades y colegios**: Las instituciones educativas a veces proporcionan espacio gratuito para reuniones, particularmente para eventos de ex alumnos o comunitarios. Contacta con el departamento de eventos o la oficina de relaciones comunitarias de la institución para obtener más información.
+- **Empresas y cafés locales**: Algunas empresas, como cafés y librerías, tienen espacios que se pueden utilizar para reuniones durante horas no pico. A menudo se espera que los participantes compren algo en el establecimiento.
+- **Plataformas en línea**: Sitios web como EventBrite o Facebook Groups pueden ser recursos para encontrar espacios compartidos que están disponibles de forma gratuita. Los tableros comunitarios a menudo enumeran espacios disponibles.
+- **Edificios municipales**: Los ayuntamientos y otros edificios municipales con frecuencia tienen salas disponibles para uso público. Estos suelen estar disponibles de forma gratuita, pero es posible que debas demostrar que la reunión beneficia a la comunidad.
+- **Iglesias y centros religiosos**: Muchos centros religiosos están dispuestos a ofrecer su espacio para reuniones comunitarias o sin fines de lucro. Es posible que no lo anuncien ampliamente, así que vale la pena preguntar directamente.
+- **Parques y lugares al aire libre**: Para reuniones o reuniones menos formales, considera un parque local. Asegúrate de verificar si necesitas un permiso, especialmente para grupos más grandes o configuraciones especiales.
+
+Cuando utilices espacios gratuitos, es una buena práctica dejar el espacio como lo encontraste y agradecer al proveedor. Esto mantiene una buena relación y aumenta la probabilidad de que el espacio esté disponible para uso futuro.
+
+### Nota: Mejores prácticas para la planificación de eventos {#note-best-practices-for-event-planning}
+
+- Invita a asistentes a eventos públicos. Si estás organizando un evento público, es importante hacer esto con anticipación. Puedes configurar un evento en Facebook o Meetup, promocionar el evento compartiéndolo con otros grupos y generar asistencia.
+- Asegúrate de que la dirección que estás proporcionando a las personas dé instrucciones más allá de una dirección de la calle, si es necesario. Por ejemplo, si estás teniendo un stand pero no tienes instrucciones exactas para llegar a tu stand dentro del edificio, un número sorprendente de nuevos miembros simplemente se rendirá. Un letrero de stand (imprime fotos en Walmart por $1 cada una) también puede ayudar significativamente.
+- Incluye un elemento social en los eventos. Asegúrate de que haya tiempo para socializar y construir un sentido de comunidad. Incluye tiempo no estructurado en la agenda del evento para que las personas se presenten y se mezclen.
+- También puedes organizar eventos 100% sociales: donde no hay agenda o presentación, solo reunirse para comida o bebida. Tener estos eventos ocasionalmente puede ser una buena idea.
+- Siempre incluye un seguimiento y pasos siguientes al final del evento. Dale a los asistentes una idea clara de lo que pueden hacer, en el futuro, para permanecer involucrados con PauseAI.
+
+## Superar obstáculos en la organización local {#overcoming-obstacles-in-local-organizing}
+
+### Obstáculo 1: Dificultad para poner en marcha tu grupo {#obstacle-1-difficulty-getting-your-group-off-the-ground}
+
+Puedes tener dificultades para encontrar voluntarios al principio. Tal vez las personas con las que hablas no parecen interesadas, tus sesiones de reparto de folletos no salen bien y no puedes parecer obtener que los grupos locales existentes te devuelvan los correos electrónicos.
+
+**Cómo superarlo**:
+
+- Utiliza tu red personal tanto como sea posible. Ponte en contacto con cualquier persona que creas que podría estar interesada en involucrarse y pregúntale si conoce a alguien con quien podrías hablar. De manera similar, si conoces a alguien en un grupo local, ponte en contacto con ellos personalmente.
+- Asegúrate de tener un "discurso" muy fuerte cuando repartas folletos. Si tu discurso parece desenfocado, débil o tibio, esto podría estar contribuyendo a tu falta de interés. [Lee esta guía](/flyering) para aprender más sobre cómo desarrollar un discurso fuerte.
+- Asegúrate de que estés repartiendo folletos en un área con alta densidad de población y muchos voluntarios potenciales.
+- Asegúrate de que tus mensajes y correos electrónicos a los grupos sean claros y directos, con una solicitud específica. También puedes enviar tus borradores de correo electrónico al Discord de PauseAI y recibir retroalimentación.
+- Si los grupos no te responden, es posible que no estés lanzando una red lo suficientemente amplia. Considera contactar a más grupos, incluso si su enfoque parece solo vagamente o tangencialmente relacionado con la IA.
+
+### Obstáculo 2: Falta de enfoque {#obstacle-2-lack-of-focus}
+
+Puedes tener un flujo de voluntarios que vagamente quieren involucrarse, pero no tienen una idea clara de cómo quieren ayudar.
+Esto puede hacer que tu equipo esté desorganizado, con muchas ideas pero sin un plan claro para seguir adelante.
+
+**Cómo superarlo**:
+
+- Las reuniones iniciales con voluntarios pueden no proporcionar una idea lo suficientemente clara de cuáles podrían ser sus roles y responsabilidades. En este caso, puedes programar reuniones individuales adicionales y profundizar en estas preguntas. Los objetivos de estas reuniones individuales adicionales deben ser afianzar la comprensión de cómo, específicamente, cada voluntario puede involucrarse y crear un plan de seguimiento específico para garantizar la responsabilidad.
+- Si las reuniones del equipo son "demasiado hablar y no suficiente acción", es posible que debas reestructurar la agenda de la reunión para incluir más tiempo al final para la planificación concreta. Pide a los voluntarios que vayan alrededor de la sala y enumeren qué, específicamente, harán antes de la siguiente reunión.
+
+- También ayuda verificar con los voluntarios entre reuniones para ver cómo les va en términos de sus responsabilidades y si tienen alguna pregunta o necesitan ayuda con algo. Esto incluso puede ser solo un mensaje de texto rápido de verificación.
+
+### Obstáculo 3: tu grupo "se desvanece" debido a la disminución del interés de los voluntarios {#obstacle-3-your-group-fizzles-out-due-to-waning-interest-from-volunteers}
+
+Los voluntarios pueden estar inicialmente emocionados de involucrarse pero perder interés con el tiempo.
+Esto puede suceder porque los voluntarios no se sienten motivados, no les gustan las acciones que les interesan o simplemente se dan cuenta de que el voluntariado no es para ellos.
+
+Parte de esto es inevitable: no todos permanecerán invertidos en todo momento, pero mucho se puede evitar.
+
+**Cómo superarlo**:
+
+- Asegúrate de que los voluntarios se sientan empoderados y agentes. Los voluntarios necesitan sentir que tienen una participación en lo que está sucediendo y que su perspicacia importa. Esta es otra razón por la que las reuniones individuales son tan importantes; puedes comprender las motivaciones de los voluntarios y trabajar con ellos en consecuencia. De manera similar, durante las reuniones del equipo, siempre proporciona tiempo suficiente para que los voluntarios propongan ideas y proporcionen retroalimentación sobre los planes.
+- Haz actividades divertidas juntos. Los eventos sociales pueden ser una excelente manera de construir un sentido de comunidad entre tus voluntarios.
+- Asegúrate de que los voluntarios estén involucrados en acciones que realmente disfrutan. No hagas que la persona que disfruta organizando protestas escriba artículos de opinión y que la persona que disfruta escribiendo organice protestas. Ajusta las tareas a las personas interesadas en asumirlas.
+- Mantén una estrategia de reclutamiento continuo. En lugar de tener un solo estallido de reclutamiento al principio y luego no hacer ningún reclutamiento después, es mejor reclutar periódicamente. De esta manera, incluso si algunas personas pierden interés con el tiempo, puedes incorporar nuevos voluntarios al grupo.
+
+Si estás luchando con algún aspecto de la organización local, también puedes discutir esto en el canal de organizadores locales en el [Discord de PauseAI](https://discord.gg/6ag3uceR5m), y otros estarán encantados de ayudarte y proporcionarte retroalimentación.
diff --git a/l10n-cage/md/es/microgrants.md b/l10n-cage/md/es/microgrants.md
new file mode 100644
index 00000000..eaecb4f9
--- /dev/null
+++ b/l10n-cage/md/es/microgrants.md
@@ -0,0 +1,38 @@
+---
+title: Microsubvenciones de PauseAI
+description: Nuestro fondo comunitario para apoyar proyectos que se alinean con nuestra misión.
+---
+
+Tenemos una larga lista de proyectos en los que nuestra comunidad está trabajando.
+Hay mucho por hacer.
+Y a veces necesitamos financiamiento para ser más efectivos.
+Pero obtener fondos puede ser un desafío - especialmente si nunca has solicitado una subvención.
+
+¡Aquí es donde entran en juego las Microsubvenciones de PauseAI!
+Pequeñas cantidades de dinero (normalmente menos de 2000 EUR) para trabajar en un proyecto.
+Somos flexibles en cuanto a los tipos de proyectos que pueden solicitar, siempre y cuando se alineen con nuestra misión de mitigar los riesgos catastróficos de la IA.
+
+Aquí hay algunos ejemplos:
+
+- **Organizar un evento** (alquiler de local, comida y bebida)
+- **Crear o promocionar videos** sobre por qué la IA es peligrosa o por qué podemos pausarla
+- **Desarrollar un borrador de política**, por ejemplo, formalizar nuestra [propuesta](/proposal)
+- **Realizar investigación de mercado**, por ejemplo, una encuesta o un estudio de prueba de mensajes
+- **Escribir artículos para medios**, por ejemplo, escribir un artículo de opinión para un periódico nacional
+- **Crear una nueva organización** que se alinee con nuestra misión
+
+## Limitaciones {#limitations}
+
+- Tenga en cuenta que, como somos una organización benéfica, no podemos proporcionar un salario a través de este programa.
+- Su proyecto y sus beneficios para la sociedad deben ser independientes - no es un proyecto para beneficio de PauseAI.
+- Si planea crecer la comunidad de PauseAI haciendo trabajo voluntario típico, considere solicitar una [subvención para voluntarios](/volunteer-stipends) en su lugar.
+
+## El proceso {#the-process}
+
+- Describa su proyecto en el canal `#projects` de nuestro servidor de Discord. Hable sobre la idea, lo que quiere hacer, dónde necesita ayuda y qué cantidad de dinero necesita. Mencione `@microgrants` para notificar al equipo de microsubvenciones.
+- Complete la [Plantilla de Microsubvenciones](https://docs.google.com/document/d/1oPXezImarCY7MCYaT-lJb-uLNbbQ76O1FYNr-WTS6hI/edit?usp=sharing) y envíela a [joep@pauseai.info](mailto:joep@pauseai.info).
+- Nos pondremos en contacto con usted. O bien a) le damos el visto bueno de inmediato, b) queremos ver algunos cambios/preguntas respondidas o c) le damos un no.
+- Asegúrese de hacer esto al menos un mes antes de necesitar los fondos. Déjenos tiempo para discutir esto en el equipo, dar retroalimentación o pedir aclaraciones. Especialmente si la solicitud es más alta.
+- Le enviaremos un Memorándum de Entendimiento (MoU) que necesita firmar.
+- ¡Póngase a trabajar!
+- Avísenos cuando haya terminado, y le enviaremos la subvención. Si necesita el dinero por adelantado, podemos discutir esa opción, pero no debería ser la opción predeterminada.
diff --git a/l10n-cage/md/es/mitigating-pause-failures.md b/l10n-cage/md/es/mitigating-pause-failures.md
new file mode 100644
index 00000000..369d7b04
--- /dev/null
+++ b/l10n-cage/md/es/mitigating-pause-failures.md
@@ -0,0 +1,146 @@
+---
+title: Pausar el desarrollo de la IA podría salir mal. ¿Cómo mitigar los riesgos?
+description: Este artículo aborda algunos de los riesgos de pausar el desarrollo de la IA y cómo mitigarlos.
+---
+
+Estamos presionando para una pausa en el desarrollo de grandes modelos de IA generales.
+Ver nuestra [propuesta](/proposal) para más detalles.
+
+Esta medida no está exenta de riesgos.
+En este artículo, abordaremos algunos de estos riesgos y cómo mitigarlos.
+
+## Pausar demasiado pronto {#pausing-too-early}
+
+Si se produce una pausa en la IA antes de que los riesgos sean lo suficientemente grandes, podríamos perder los beneficios de la IA.
+En última instancia, debemos equilibrar los riesgos con los costos de pausar.
+
+En nuestra opinión, la posibilidad de que la IA cause riesgos catastróficos [pronto](/urgency) ya es lo suficientemente grande como para justificar una pausa en este momento.
+Como dijo Stuart Russell, cuando se enfrenta a un plazo incierto, uno debe tomar la acción que sería óptima dado el plazo más corto.
+
+Cuanto más esperemos, más personas pensarán que una pausa no es posible, y más personas fantasearán e invertirán en aplicaciones de IA teóricamente posibles.
+Así que más dinero irá a presionar en contra de personas como nosotros.
+
+Además, desde protestar y presionar hasta convencer a las personas en el poder, para hacer un tratado que tenga efecto, podría tomar muchos años. Sin mencionar que incluso si no fuera el caso, pausar temprano nos da espacio para respirar para que los actores malos y los avances algorítmicos no nos hagan caer en el precipicio.
+
+## Pausar durante demasiado poco tiempo / solo durante 6 meses {#pausing-for-too-short--only-for-6-months}
+
+La pausa que proponemos es de duración indeterminada. No deberíamos reanudar hasta que haya un consenso amplio sobre cómo desarrollar IA de manera segura. Técnicamente y democráticamente hablando.
+Nuestra propuesta no es "durante al menos 6 meses" como la [carta abierta publicada por el Instituto del Futuro de la Vida](https://futureoflife.org/open-letter/pause-giant-ai-experiments/).
+
+## Pausar durante demasiado tiempo {#pausing-for-too-long}
+
+Nick Bostrom, una de las primeras voces que expresaron preocupación sobre la IA, se preocupa de que [en algún momento podríamos preocuparnos demasiado por los riesgos de la IA](https://twitter.com/jachaseyoung/status/1723325057056010680), aunque ese momento aún no ha llegado.
+Si la preocupación por la IA sigue aumentando y obtenemos una pausa, podría llevar a una situación en la que el desarrollo de la IA en su totalidad se vuelva tabú o ilegal.
+Si eso sucede, nunca cosecharemos los beneficios de la IA, y mientras tanto, podríamos enfrentar otros riesgos existenciales que podríamos haber evitado con la ayuda de la IA.
+
+Podemos abordar este riesgo declarando claramente bajo qué condiciones debería reanudarse el desarrollo de la IA.
+Como dijimos, sugerimos que el desarrollo de la IA debería reanudarse cuando sea posible construir IA segura.
+Además, solo proponemos prohibir el desarrollo de modelos muy específicos: los modelos generales más grandes.
+
+## La centralización de la IA podría empeorar los riesgos de toma de control {#centralization-of-ai-might-make-takeover-risks-worse}
+
+No proponemos una centralización del desarrollo de la IA en una sola organización. Eso haría que el desarrollo de la IA fuera más controlable, pero también crearía un solo punto de falla, que la codicia y la estupidez humanas podrían aprovechar.
+Decidir si un proyecto tipo CERN/Apolo/Manhattan sería bueno o no debería discutirse multilateralmente, una vez que ya hayamos colaborado en una pausa y estemos fuera de una carrera.
+
+## La descentralización hará que actores menos conscientes de la seguridad lideren la carrera {#descentralization-will-cause-less-safety-minded-actors-to-lead-the-race}
+
+Si se sumerge en la historia de OpenAI, DeepMind y Anthropic, encontrará que todos ellos fueron fundados por personas que están muy preocupadas por los riesgos de la IA.
+De alguna manera, somos afortunados de que las mayores empresas de IA en este momento tengan la seguridad de la IA como parte de su cultura.
+Quizás una pausa les da a un gran número de empresas el tiempo para ponerse al día, lo que podría llevar a un gran grupo de empresas que son menos conscientes de la seguridad.
+
+Si estuviéramos pidiendo una pausa basada en el tiempo, esta sería una preocupación justa.
+Pero lo que estamos pidiendo es una pausa _hasta que podamos probar que la IA puede ser construida de manera segura_, así que no deberíamos terminar con organizaciones que construyen IA insegura después de que se levante la pausa.
+
+## Las pausas nacionales o locales podrían fallar {#national-local-pauses-might-fail}
+
+Si un país pausa el desarrollo de la IA, otros países seguirán desarrollando la IA.
+Podríamos terminar en un mundo donde la primera AGI sea desarrollada por un actor no cooperativo, lo que probablemente sea un mal resultado.
+Los incentivos para pausar individualmente son débiles, porque los beneficios del desarrollo de la IA son grandes, y los riesgos del desarrollo de la IA son globales.
+Esta es una situación clásica de [dilema del prisionero](https://es.wikipedia.org/wiki/Dilema_del_prisionero).
+
+La solución a esto es hacer que la pausa sea internacional a través de un tratado, lo que es lo que estamos proponiendo.
+Esto también requiere un mecanismo de aplicación fuerte.
+Los países que no cumplan con el tratado deberían ser castigados.
+Las sanciones económicas pueden ser suficientes, pero la intervención militar podría ser necesaria en casos extremos.
+
+Un actor en particular que algunas personas creen que no pausará es China.
+No estamos de acuerdo con esta evaluación y puede leer sobre ello [aquí](/faq#if-we-pause-what-about-china).
+
+## El desarrollo de la IA podría ir bajo tierra {#ai-development-might-go-underground}
+
+Si el desarrollo de la IA (por encima de un cierto umbral) es prohibido, podría ir bajo tierra.
+Los beneficios potenciales son tan grandes que un actor estatal (o no estatal) podría decidir desarrollar la IA en secreto.
+Eso significa que el primero en lograr la superinteligencia sería un actor no cooperativo, lo que probablemente sea un mal resultado.
+
+Al rastrear las ventas de GPU, podemos detectar el desarrollo de la IA a gran escala.
+Dado que los clústeres de GPU de modelos de vanguardia requieren cantidades inmensas de energía y edificios personalizados, la infraestructura física necesaria para entrenar un modelo grande es difícil de ocultar.
+
+Las potencias occidentales (EE. UU., Países Bajos y Taiwán) controlan la cadena de suministro de GPU lo suficientemente fuerte como para evitar que los estados no cooperativos obtengan GPU.
+Los actores no estatales es probable que no puedan reunir suficientes recursos en secreto para entrenar una AGI durante al menos una década después de que la AGI se vuelva posible para las grandes empresas de tecnología.
+Además, el hecho de que ya no haya un _incentivo comercial_ ayudaría a reducir la cantidad de desarrollo de la IA bajo tierra.
+
+## El exceso de hardware podría causar un despegue rápido {#hardware-overhang-could-cause-a-fast-takeoff}
+
+> Si no incluimos la I+D de hardware en la pausa, el rendimiento precio de las GPU seguirá duplicándose cada 2,5 años, como lo hizo entre 2006 y 2021.
+> Esto significa que los sistemas de IA se volverán al menos 16 veces más rápidos después de diez años y 256 veces más rápidos después de veinte años, simplemente debido a un mejor hardware.
+> Si se levanta la pausa de golpe, estas mejoras de hardware estarían disponibles inmediatamente para entrenar modelos más potentes de manera más barata: un exceso de hardware.
+> Esto causaría un aumento rápido y bastante discontinuo en las capacidades de la IA, lo que podría llevar a un escenario de despegue rápido y todos los riesgos que conlleva.
+
+[_Por Nora Belrose_](https://bounded-regret.ghost.io/ai-pause-will-likely-backfire-by-nora/)
+
+Esta es una preocupación seria, aunque hay argumentos sólidos que se pueden hacer que [el exceso es improbable que ocurra](https://blog.aiimpacts.org/p/are-there-examples-of-overhang-for).
+
+PauseAI apoya una pausa en las mejoras relevantes de cómputo también.
+Además, como dijimos, el botón de "play" no debería presionarse si todavía no sabemos cómo construir IA segura.
+Y eso incluye el entrenamiento y la implementación de modelos con hardware más avanzado.
+
+## El desarrollo de la IA es necesario para aprender a hacer que la IA sea segura {#ai-development-is-necessary-for-learning-how-to-make-ais-safe}
+
+La mayoría de las personas creen que algún nivel de alineación prosaica/incremental es necesario, así que si se implementa una pausa completa sin excepciones, no se haría suficiente progreso en la alineación y eventualmente los actores que no se preocupan por la seguridad y la pausa desarrollarían una IA poderosa y no alineada.
+
+Esa es una razón por la que proponemos tener una forma de aprobar ciertas ejecuciones de entrenamiento. Eso nos permitiría aprender de sistemas más grandes si podemos asegurar su seguridad.
+Sin embargo, en el peor de los casos en el que no podemos asegurar su seguridad y progresar lo suficiente en la alineación, todavía tenemos la opción de intentar aumentar nuestra inteligencia a través de otras tecnologías.
+
+## Las mejoras algorítmicas o de ejecución pueden hacer que los modelos más pequeños sean peligrosos también {#algorithmic-or-runtime-improvements-may-make-smaller-models-dangerous-too}
+
+Hemos visto que los cambios en los datos de entrenamiento, los algoritmos de entrenamiento o el uso de ejecución pueden llevar a mejoras significativas en el rendimiento del modelo.
+Es por eso que no nos estamos enfocando solo en el tamaño del modelo.
+Estamos [proponiendo](/proposal) pausar el desarrollo de modelos de IA generales grandes que sean 1) más grandes que 10^12 parámetros, 2) tengan más de 10^25 FLOPs utilizados para el entrenamiento o 3) capacidades que se espera que superen a GPT-4.
+Esta tercera condición se agrega para incluir también modelos más pequeños que pueden ser peligrosos.
+Hacer cumplir un límite en las capacidades es complicado, ya que es difícil predecir las capacidades de un modelo antes de que se entrene.
+
+Dado que las apuestas son tan altas, debemos ser cautelosos, así que también apoyamos una pausa en las mejoras relevantes algorítmicas y de ejecución.
+Sin embargo, hacer cumplir esto será más difícil que hacer cumplir las regulaciones de cómputo, porque el hardware es más fácil de rastrear que el software.
+
+## Si solo prohibimos los modelos de IA generales, todavía podríamos obtener AGI a través de modelos estrechos {#if-we-only-ban-general-ai-models-we-might-still-get-agi-through-narrow-models}
+
+Queremos restringir los modelos peligrosos que tienen [capacidades peligrosas](/dangerous-capabilities) como manipular a los humanos, planificar estratégicamente y escribir código.
+No queremos restringir los modelos de IA muy estrechos, como clasificadores de imágenes utilizados en autos autónomos o diagnóstico médico.
+Afortunadamente, prácticamente todos estos modelos estrechos caen fuera de nuestras [propuestas](/proposal) restricciones, porque estos modelos tienden a ser relativamente pequeños.
+
+Un modelo estrecho lo suficientemente poderoso (entrenado con datos del mundo real) podría ser probable que se generalice a capacidades peligrosas.
+Por ejemplo, un modelo generador de imágenes muy poderoso podría ser capaz de hacer imágenes de código funcional, o un modelo de video muy poderoso podría ser capaz de generar una película sobre una IA que planea una toma de control exitosa.
+Los modelos estrechos a menudo se vuelven mejores en su tarea estrecha al generalizarse.
+Hasta cierto punto, esto es lo que hace que los LLM como ChatGPT sean tan exitosos: están entrenados solo para "predecir la siguiente palabra", pero para que sean realmente buenos en esto, necesitan aprender mucho sobre el mundo.
+
+Por lo tanto, no hemos definido "estrecho" o "general" IA en nuestra propuesta, sino que usamos tres condiciones relacionadas con el tamaño del modelo, el cómputo utilizado y las capacidades.
+
+## Si se implementa una pausa, debemos esperar un compromiso político {#if-a-pause-is-implemented-we-should-expect-a-political-compromise}
+
+Tenemos una [propuesta específica](/proposal) que creemos que es óptima.
+Sin embargo, no debemos esperar que nuestra propuesta se implemente exactamente como la queremos.
+La política es desordenada e impredecible, así que debemos esperar que nuestros esfuerzos de presión tengan efectos vagamente direccionales, en lugar de efectos precisos.
+Si obtenemos alguna forma de pausa, pero no es exactamente lo que queremos, esto podría terminar siendo peor que no tener pausa en absoluto.
+Por ejemplo:
+
+- Una pausa nacional que permitiría que actores potencialmente peores lleguen a la AGI primero
+- Una pausa internacional que no se hace cumplir adecuadamente, lo que lleva a un resultado similar
+
+Podemos mitigar esto siendo consistentes y claros en nuestras comunicaciones sobre lo que queremos.
+
+## Pausar demasiado tarde {#pausing-too-late}
+
+Este es el riesgo de fracaso más obvio y probable: si pausamos demasiado tarde, es probable que nos encontremos con riesgos catastróficos.
+Y eso podría suceder pronto, como explicamos en nuestra [página de urgencia](/urgency).
+
+Es por eso que necesitamos su ayuda para presionar por una [pausa ahora](/action).
diff --git a/l10n-cage/md/es/national-groups.md b/l10n-cage/md/es/national-groups.md
new file mode 100644
index 00000000..2767cd72
--- /dev/null
+++ b/l10n-cage/md/es/national-groups.md
@@ -0,0 +1,68 @@
+---
+title: Grupos Nacionales de PauseAI
+description: ¿Qué significa ser un Grupo Nacional en la red de PauseAI?
+---
+
+
+
+
+
+
+
+## ¿Qué hace un Grupo Nacional de PauseAI? {#what-a-pauseai-national-groups-does}
+
+- Gestionar, asesorar y coordinar sus propias [comunidades locales](/communities).
+- Organizar eventos a nivel nacional.
+- Ser responsable de la estrategia y coordinación a nivel nacional.
+- Por lo general, contar con su propio sitio web, cuentas de redes sociales y personalidad jurídica.
+- Realizar actividades de cabildeo y difusión en medios a nivel nacional.
+- Actualmente, la mayoría de los grupos nacionales funcionan gracias al trabajo de voluntarios.
+
+## ¿Qué ofrece PauseAI Global? {#what-pauseai-global-provides}
+
+- **Infraestructura digital** que incluye aspectos como suscribirse al boletín informativo, unirse al servidor de Discord, incorporar voluntarios, etc.
+- **Financiación** para actividades a nivel nacional. Los grupos nacionales pueden solicitar [Microsubvenciones](/microgrants) de PauseAI Global para financiar todo tipo de actividades. No obstante, se anima a los grupos nacionales a recaudar fondos para sus propias actividades.
+- **Asesoramiento** y **seguimiento** para garantizar que los grupos nacionales tengan éxito y se alineen con la estrategia global.
+- **Materiales de marketing** como folletos, carteles, contenido para redes sociales, etc.
+- **Estrategia**. Se espera que los grupos nacionales sigan la estrategia de PauseAI ([Teoría del Cambio](/theory-of-change), [Estrategia de Comunicación](/communication-strategy), [Estrategia de Crecimiento](/growth-strategy)). Sin embargo, se espera que los grupos nacionales realicen ajustes en la estrategia para adaptarla a su contexto local.
+
+## Cómo establecer un Grupo Nacional de PauseAI {#how-to-set-up-a-pauseai-national-group}
+
+1. Crear un `#proyecto` en el Discord de PauseAI para describir lo que planeas hacer.
+2. Ponte en contacto con el equipo de Supervisión de PauseAI Global. Pueden ayudar con financiación, apoyo, materiales. Te proporcionarán una dirección de correo electrónico `nombredelpaís@pauseai.info`.
+3. Crear materiales
+ 1. **Logotipo**, puedes usar [el Figma](https://www.figma.com/design/iQ4PHQTi1vAVmT9Lckazqt/PauseAI-designs---editable) que contiene algunos ejemplos para otros países.
+ 1. **Folleto** (¡de nuevo, Figma!). Pide ayuda si la necesitas. Puedes encontrar más folletos en el [disco público](https://drive.google.com/drive/u/1/folders/1bQ_MZ8giK-Mee4ABkO0BgcFInaXruNpa).
+ 1. **Sitio web**. Puedes hacer esto de tres maneras:
+ 1. Espera a que PauseAI.info ofrezca traducciones automáticas. Quizás puedas tener tu propia página en el sitio web de pauseai.info. Por ejemplo, [PauseAI NYC](/nyc-action).
+ 2. Clona el repositorio de GitHub de PauseAI, tradúcelo y ajústalo a tu gusto. Podemos ayudar a alojarlo si es necesario.
+ 3. Crea tu propio sitio web personalizado, como hizo [PauseIA](https://pauseia.fr/).
+4. Establecer un canal de comunicación interno / chat grupal
+ 1. Por ejemplo, WhatsApp / Signal / Telegram / Discord.
+ 2. Elige algo popular para maximizar la participación.
+5. Establecer **cuentas de redes sociales**. (por ejemplo, X, Instagram, LinkedIn, TikTok)
+ 1. Considera qué herramientas son importantes para tu país y audiencia objetivo.
+ 2. Considera una herramienta como Buffer para programar publicaciones. Mira las publicaciones de PauseAI X para inspirarte. ¡Puedes planificar una lista completa de una sola vez!
+ 3. Lee la [Estrategia de Comunicación](/communication-strategy) para obtener más consejos.
+ 4. Inspírate en cuentas como [ControlAI](https://x.com/ai_ctrl/) (excelentes videos cortos, buen tono) y [AISafetyMemes](https://x.com/AISafetyMemes) (usa humor, visualmente atractivo).
+6. **Reclutamiento**. Lograr que las personas se unan a tu grupo.
+ 1. Encuentra personas en grupos relevantes (EA, seguridad de IA)
+ 2. Aprovecha cualquier evento de networking
+ 3. Evento de lanzamiento
+ 1. Maxime hizo esto para PauseIA FR
+ 2. Alquila un lugar agradable con unos meses de antelación
+ 3. Invita a buenos oradores, periodistas, personas relevantes, posibles voluntarios
+ 4. Obtén el reembolso de los costos por parte de PauseAI
+ 5. ¡Así es como puedes darte a conocer rápidamente!
+ 4. La [Guía de Organización Local](/local-organizing) tiene algunos consejos sobre reclutamiento que pueden transferirse bien al nivel nacional.
+7. Establecer **actividades**
+ 1. Publicar cosas en tus redes sociales
+ 2. [Repartir folletos](/flyering) / [Montar mesas informativas](/tabling) (especialmente en ferias de grupos estudiantiles en campus universitarios, también excelente para reclutar)
+ 3. Talleres (por ejemplo, taller de cabildeo, taller de protesta)
+ 4. Cabildeo directo
+ 5. Difusión en medios / alcance a periodistas
+ 6. Protestar
+ 1. Quizás en varias ciudades, o una más grande en una ubicación
+ 2. [Lee más aquí](/organizing-a-protest)
diff --git a/l10n-cage/md/es/nyc-action.md b/l10n-cage/md/es/nyc-action.md
new file mode 100644
index 00000000..4d7b23e7
--- /dev/null
+++ b/l10n-cage/md/es/nyc-action.md
@@ -0,0 +1,39 @@
+---
+title: Acciones de PauseAI en Nueva York
+description: ¡Ayuda a detener la aceleración de la IA peligrosa tomando acción!
+date: '2024-8-20'
+---
+
+## Muestra tu apoyo al movimiento PauseAI en la ciudad de Nueva York y ayuda a salvar al mundo de los [numerosos riesgos](https://airisk.mit.edu/) de la IA. Tenemos una necesidad urgente de personas que nos ayuden con cualquiera de las siguientes tareas: {#show-support-for-the-pauseai-movement-in-new-york-city-and-help-save-the-world-from-ais-many-risks-we-have-an-urgent-need-for-people-to-help-us-with-any-of-the-following}
+
+(Actualizado el 20 de agosto)
+
+**Si respiras (tareas de cinco minutos que cualquiera puede hacer):**
+
+- [Envía un correo electrónico sobre los riesgos de la IA a todos tus funcionarios electos simultáneamente](https://democracy.io/). Si no sabes qué decir, utiliza [nuestro generador de correos electrónicos](https://pauseai.info/email-builder).
+- Únete a [nuestras reuniones mensuales presenciales](https://www.eventbrite.com/e/pauseai-monthly-action-meeting-tickets-914711244957) cada mes el día 11.
+- Únete a nuestra comunidad en línea de Nueva York en los siguientes lugares: [Discord](https://discord.com/channels/1100491867675709580/1223374237016784928), [Whatsapp](https://chat.whatsapp.com/KAQMwz2nQeWIkTLxwKxHg1) Principalmente usamos Discord por ahora, pero avísanos si prefieres una comunicación alternativa.
+- Sigue a PauseAINYC en [Instagram](https://www.instagram.com/pauseainyc/), o en [Twitter](https://x.com/PauseAINYC).
+
+**Si te gusta socializar:**
+
+- Inscríbete en uno de [nuestros eventos](https://www.eventbrite.com/o/pause-ai-nyc-83065324363). Realizamos todo tipo de actividades, desde manifestaciones públicas frente a empresas de IA hasta asistir a sesiones de networking con organizaciones relacionadas.
+- Programa una reunión con [tu funcionario político local](https://www.usa.gov/elected-officials) para discutir los riesgos de la IA. [Envíanos una copia por correo electrónico](mailto:nyc@pauseai.info) y te apoyaremos en tu compromiso. Alternativamente, encontrar a un funcionario en tu estado o región que trabaje directamente en la legislación de IA puede ser más productivo.
+
+**Si eres bueno publicando y creando redes en las redes sociales:**
+
+- [Asiste a nuestras reuniones presenciales](https://www.eventbrite.com/e/pauseai-monthly-action-meeting-tickets-914711244957), o envía un correo electrónico a [nyc@pauseai.info](mailto:nyc@pauseai.info) con un breve resumen de tu experiencia. Buscamos específicamente personas que puedan conectarse con otras comunidades de riesgos tecnológicos y ampliar nuestro alcance como organización en las redes sociales. Las habilidades de diseño son menos relevantes en este momento, ya que contamos con algunas de ellas cubiertas.
+- Para un compromiso menor, mostrar aprecio por las publicaciones de PauseAINYC a través de likes, comentarios de apoyo y seguidores también es valorado.
+
+**Si eres bueno en desarrollo web:**
+
+- [Asiste a nuestras reuniones presenciales](https://www.eventbrite.com/e/pauseai-monthly-action-meeting-tickets-914711244957), o envía un correo electrónico a [nyc@pauseai.info](mailto:nyc@pauseai.info) con un breve resumen de tu experiencia. Estamos buscando personas que puedan escribir y potencialmente ayudar a alojar nuestro propio sitio web separado (que no cueste una fortuna de un proveedor de alojamiento web).
+
+**Si eres bueno en fotografía, videografía y/o producción de medios:**
+
+- Siempre estamos buscando más personas que nos ayuden a capturar nuestras manifestaciones públicas y difundir el mensaje. Inscríbete en uno de [nuestros eventos](https://www.eventbrite.com/o/pause-ai-nyc-83065324363).
+
+**Si deseas brindar apoyo financiero:**
+
+- Puedes [donar aquí](https://pauseai.info/donate). Tus donaciones son deducibles de impuestos (si las declaras), y todas las donaciones van directamente a personas y proyectos que abordan los peligros de la IA.
+- Alternativamente, puedes financiar proyectos específicos, como costos de impresión de camisetas o fondos para ayudar a los miembros a viajar juntos para protestar.
diff --git a/l10n-cage/md/es/nyc-un-vigil.md b/l10n-cage/md/es/nyc-un-vigil.md
new file mode 100644
index 00000000..ed84d412
--- /dev/null
+++ b/l10n-cage/md/es/nyc-un-vigil.md
@@ -0,0 +1,31 @@
+---
+title: Vigilia con velas de PauseAI en la sede de la ONU en Nueva York, 3 de junio
+---
+
+
+
+- Vigilia con velas para concienciar sobre el riesgo existencial de la inteligencia artificial.
+- 3 de junio, 7:30PM a 9PM. El sol se pone a las 8:15 aquí.
+- Sede de las Naciones Unidas en la ciudad de Nueva York.
+- [Inscríbete](https://forms.gle/hsVetUDx3R1w6yj59)
+
+## Comunicado de prensa {#press-release}
+
+El sábado 3 de junio, al atardecer, se llevará a cabo una vigilia con velas frente a la sede de las Naciones Unidas.
+La vigilia es un llamado a la acción y a la esperanza, para que los seres humanos puedan unirse y hacer frente a la creciente amenaza existencial que plantea la inteligencia artificial.
+Voluntarios del movimiento [PauseAI](http://pauseai.info) se reunirán allí para instar a los gobiernos a organizar una cumbre que detenga el desarrollo de esta tecnología peligrosa.
+
+La mitad de los investigadores en inteligencia artificial [creen](https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/) que hay un 10% o más de probabilidad de que la invención de una inteligencia artificial superhumana signifique el fin de la humanidad. ¿Subirías a un avión si la mitad de los ingenieros aeronáuticos pensaran que hay un 10% de probabilidad de que se estrelle?
+
+Destacados expertos en inteligencia artificial, como el profesor [Geoffrey Hinton](https://www.reuters.com/technology/ai-pioneer-says-its-threat-world-may-be-more-urgent-than-climate-change-2023-05-05/) y el profesor [Yoshua Bengio](https://yoshuabengio.org/2023/05/22/how-rogue-ais-may-arise/), ambos ganadores del Premio Turing y pioneros de los métodos de inteligencia artificial más exitosos de hoy en día, han advertido sobre los peligros de la inteligencia artificial. No solo científicos, sino también líderes de empresas de inteligencia artificial, están preocupados por este peligro:
+
+- Sam Altman (CEO de OpenAI, la empresa detrás de ChatGPT): ["El desarrollo de una inteligencia artificial superhumana es probablemente la mayor amenaza para la existencia continua de la humanidad."](https://blog.samaltman.com/machine-intelligence-part-1)
+- Elon Musk (cofundador de OpenAI): ["La inteligencia artificial tiene el potencial de destrucción civilizatoria."](https://www.inc.com/ben-sherry/elon-musk-ai-has-the-potential-of-civilizational-destruction.html)
+- Bill Gates (cofundador de Microsoft, propietario del 50% de OpenAI): ["La inteligencia artificial podría decidir que los humanos son una amenaza."](https://www.denisonforum.org/daily-article/bill-gates-ai-humans-threat/)
+- Jaan Tallinn (inversionista principal en Anthropic, constructores de Claude): ["No he conocido a nadie en laboratorios de inteligencia artificial que diga que el riesgo [de entrenar un modelo de próxima generación] es menor que el 1% de hacer explotar el planeta. Es importante que la gente sepa que se están arriesgando vidas."](https://twitter.com/liron/status/1656929936639430657)
+
+Los avances en el campo de la inteligencia artificial han superado las expectativas. En 2020, se estimó que un sistema de inteligencia artificial superaría los exámenes de ingreso a la universidad para 2050. Este objetivo se logró en marzo de 2023 con el GPT-4 de OpenAI. Esta inteligencia artificial tiene un [coeficiente intelectual verbal de 155](https://bgr.com/tech/chatgpt-took-an-iq-test-and-its-score-was-sky-high/), habla 23 idiomas, puede programar y [puede engañar a las personas](https://www.theinsaneapp.com/2023/03/gpt4-passed-captcha-test.html). Afortunadamente, el GPT-4 todavía tiene limitaciones. Por ejemplo, no puede [hackear o escribir virus informáticos](https://pauseai.info/cybersecurity-risks) de manera efectiva, pero es posible que estas habilidades estén solo a unas pocas innovaciones de distancia. Dado el ritmo actual de inversión en inteligencia artificial, este punto se está [acercando rápidamente](https://pauseai.info/urgency).
+
+Estos saltos masivos y repentinos en capacidades han llevado a muchos expertos a solicitar una pausa en el desarrollo de la inteligencia artificial a través de una [carta abierta](https://futureoflife.org/open-letter/pause-giant-ai-experiments/) dirigida a las principales empresas de inteligencia artificial. La carta ha sido firmada más de 27.000 veces, principalmente por investigadores en inteligencia artificial y luminarias tecnológicas. Se necesita una pausa para trabajar en la legislación de la inteligencia artificial, trabajar en el problema de la alineación de la inteligencia artificial y ajustarse como sociedad a esta nueva tecnología. Una [encuesta reciente](https://forum.effectivealtruism.org/posts/EoqeJCBiuJbMTKfPZ/unveiling-the-american-public-opinion-on-ai-moratorium-and) en los Estados Unidos muestra un apoyo significativo a una pausa, con más del 60% del público a favor. Desafortunadamente, parece que las empresas no están dispuestas a arriesgar voluntariamente sus posiciones competitivas deteniéndose. Estas empresas de inteligencia artificial están atrapadas en una carrera hacia el fondo, donde la seguridad cada vez tiene menos prioridad en comparación con mejorar las capacidades. Por lo tanto, la pausa debe ser impuesta por los gobiernos. Implementar una pausa nacional también es un desafío, ya que los países tienen razones para no ser los primeros en pausar. Por lo tanto, se necesita una solución internacional: una cumbre. PauseAI está llamando a nuestros gobiernos a organizar esa cumbre.
+
+Para obtener más información, por favor visite [PauseAI.info](http://pauseai.info).
diff --git a/l10n-cage/md/es/offense-defense.md b/l10n-cage/md/es/offense-defense.md
new file mode 100644
index 00000000..c08f4d9e
--- /dev/null
+++ b/l10n-cage/md/es/offense-defense.md
@@ -0,0 +1,67 @@
+---
+title: Equilibrio entre ataque y defensa en la seguridad de la IA
+description: Cómo analizar el equilibrio entre ataque y defensa en la seguridad de la IA
+---
+
+El equilibrio entre ataque y defensa se refiere a las fortalezas y debilidades relativas de las estrategias ofensivas y defensivas, generalmente en el contexto de conflictos militares o competiciones deportivas.
+
+Dado que la IA es una tecnología de doble uso, podemos ver que estos equilibrios entre ataque y defensa juegan un papel en varios problemas de seguridad de la IA:
+
+- Generación de medios falsos, detección de medios falsos
+- Ataques de ciberseguridad, defensas de ciberseguridad
+- Toma de control por IA, defensa de la IA contra la toma de control
+
+¿Cómo se desarrollará el equilibrio entre ataque y defensa en la seguridad de la IA?
+
+## Medios falsos {#fake-media}
+
+Los modelos de lenguaje grandes modernos pueden crear texto en todo tipo de estilos, y otros modelos pueden crear imágenes, audio e incluso videos.
+Muchos modelos crean falsificaciones poco convincentes, pero la calidad está mejorando rápidamente.
+
+Los modelos de texto, audio e imagen de última generación ya son lo suficientemente buenos como para engañar a la mayoría de los humanos.
+En 2022, la primera imagen generada por IA ganó un concurso de arte.
+Un par de meses después, un concurso de fotografía fue ganado utilizando una imagen generada por IA.
+
+También contamos con IA que puede detectar deepfakes.
+Esto da lugar a un juego del gato y el ratón entre los falsificadores y los detectores.
+
+En el caso del texto, el ataque parece estar ganando.
+OpenAI [descontinuó](https://news.ycombinator.com/item?id=36862850) su clasificador de IA debido a la baja precisión.
+
+Afortunadamente, medidas como [marcado de agua](https://arxiv.org/abs/2303.07205) y firmas digitales pueden ser utilizadas para detectar falsificaciones.
+Requerir firmas para todos los medios que consumimos podría ser una solución adecuada.
+
+## Ataques de ciberseguridad frente a defensas {#cybersecurity-attacks-vs-defenses}
+
+Los modelos de lenguaje grandes modernos pueden ser utilizados para encontrar vulnerabilidades en el software.
+Cuando se descubre una vulnerabilidad, se puede solucionar (defensa) o explotar (ataque).
+Y afortunadamente, la mayoría de las personas están del lado de la defensa.
+
+Sin embargo, hay algunas ventajas que los atacantes tienen sobre los defensores:
+
+- **Los atacantes solo necesitan encontrar una vulnerabilidad, mientras que los defensores necesitan encontrar todas ellas.** Los defensores no sabrán qué vulnerabilidad encontrarán los atacantes, por lo que necesitan defenderse contra todas ellas.
+- **Implementar parches lleva más tiempo que atacar.** La "Ventana de Vulnerabilidad" es el tiempo que transcurre desde que se descubre una explotación hasta que se parchea. Los defensores necesitan corregir el error, recompilar la aplicación o publicar las bibliotecas actualizadas, y luego todos los usuarios necesitan actualizar su software. Esto puede llevar meses, y mientras tanto, la vulnerabilidad puede ser explotada.
+
+## Riesgos biológicos y defensa biológica {#biohazards-and-biodefense}
+
+La IA puede ser utilizada para diseñar nuevos agentes biológicos o ayudar en el proceso de creación de una pandemia.
+Un grupo de estudiantes pudo utilizar un chatbot para [producir todos los pasos necesarios para crear una nueva pandemia](https://arxiv.org/abs/2306.03809).
+Sin embargo, también podría ser utilizada para crear nuevas vacunas, medicamentos o defensas contra agentes biológicos.
+
+- **Los virus se propagan más rápido que las vacunas**. Un virus es literalmente una máquina autorreplicante. Una vacunación, por otro lado, requiere mucho esfuerzo para producir y distribuir.
+
+## Tecnología desconocida y riesgos {#unknown-technology-and-risks}
+
+Una IA mucho más inteligente que los humanos podría ser capaz de utilizar su comprensión superior de la realidad para crear nuevas tecnologías.
+Quizás algunos nanobots autorreplicantes que puedan convertir toda la materia en copias de sí mismos, o pequeñas máquinas que puedan influir en los cerebros de los humanos.
+Predecir qué tipo de tecnología será exactamente es imposible (tendríamos que ser al menos tan inteligentes como la IA), pero todavía podemos razonar sobre el equilibrio entre ataque y defensa.
+La conclusión no es tan difícil: no tenemos idea de qué se avecina, y no tenemos idea de cómo defendernos contra ello.
+Estamos en desventaja.
+
+## Conclusión {#conclusion}
+
+Muchos riesgos de la IA tienen un equilibrio entre ataque y defensa.
+Para los medios falsos, podríamos utilizar firmas digitales para detectar falsificaciones, desplazando el equilibrio hacia la defensa.
+Para la ciberseguridad, los riesgos biológicos y la tecnología desconocida, el ataque parece tener la ventaja.
+
+La importante implicación política de esto es: [no construyamos esta tecnología en primer lugar](/proposal).
diff --git a/l10n-cage/md/es/openai-protest.md b/l10n-cage/md/es/openai-protest.md
new file mode 100644
index 00000000..25559d77
--- /dev/null
+++ b/l10n-cage/md/es/openai-protest.md
@@ -0,0 +1,48 @@
+---
+title: 'Piquete de 3 días en San Francisco: Exigiendo una pausa en el desarrollo de inteligencia artificial avanzada cerca de OpenAI'
+---
+
+
+
+- 20 de mayo de 2023, a partir de las 13:00. Duración: 3 días.
+- [Sede de OpenAI, 3180 18th St, San Francisco, CA 94110, Estados Unidos](https://goo.gl/maps/8mEdEwRhp1UyoTJi8?coh=178571&entry=tt)
+- [Regístrate aquí](https://discord.gg/Epg6AsmQ?event=1103338741906550844)
+- [Únete al canal de Discord](https://discord.gg/anXWYCCdH5)
+
+## ¿Quiénes somos? {#who-are-we}
+
+Somos un grupo de personas preocupadas por la seguridad y el impacto de la inteligencia artificial. Este piquete tiene como objetivo concienciar sobre los riesgos del desarrollo de inteligencia artificial sin control y urge a una cumbre internacional sobre seguridad de la inteligencia artificial para legisladores y el público.
+
+> _"Una inteligencia artificial de propósito general no regulada sería, en mi opinión, aún más peligrosa que eliminar todos los cinturones de seguridad, semáforos y límites de velocidad"._
+>
+> Max Tegmark, destacado defensor de la seguridad de la inteligencia artificial
+
+Inspirados por la carta abierta del Instituto del Futuro de la Vida "Pausar experimentos de inteligencia artificial gigantes" [1], firmada por figuras notables como Elon Musk, Steve Wozniak, Andrew Yang y Max Tegmark.
+
+Los organizadores fomentan un ambiente pacífico y respetuoso e invitan a los participantes a utilizar la etiqueta #PauseAI en las redes sociales. Llevaremos carteles y materiales informativos.
+
+Esta será la primera protesta en la historia que aborde específicamente la seguridad de la inteligencia artificial.
+
+## ¿Por qué en OpenAI? {#why-at-openai}
+
+OpenAI está desarrollando actualmente los modelos de inteligencia artificial más avanzados.
+Están a la vanguardia en cuanto a las capacidades de GPT-4.
+Su decisión de abrir las API de GPT a plugins ha acelerado drásticamente el desarrollo de la inteligencia artificial.
+Aún así, tenemos un gran respeto por el trabajo que OpenAI ha realizado y las personas que trabajan allí.
+
+Creemos que OpenAI está en la posición perfecta para asumir la responsabilidad y apoyar una pausa en los experimentos de inteligencia artificial gigantes.
+
+## Contacta con los organizadores {#contact-the-organizers}
+
+- **Mary Newby**: [Twitter](https://twitter.com/sisyphusunc), [correo electrónico](mailto:sisyphus.unc@gmail.com)
+- **Percy Otebay**: [Twitter](https://twitter.com/Radlib4), [correo electrónico](mailto:persiutebay@gmail.com)
+
+## Medios {#media}
+
+
+
+
+
+
diff --git a/l10n-cage/md/es/organization.md b/l10n-cage/md/es/organization.md
new file mode 100644
index 00000000..5e6eacef
--- /dev/null
+++ b/l10n-cage/md/es/organization.md
@@ -0,0 +1,70 @@
+---
+title: Organización PauseAI
+description: Cómo está estructurada la organización PauseAI y qué recursos están disponibles para los miembros.
+---
+
+## Estructura de la organización {#organization-structure}
+
+- [Entidades legales](/legal): PauseAI consta de una entidad internacional (PauseAI Global) y varias entidades legales locales/nacionales. Este sitio web y las cuentas de redes sociales son administrados por la entidad internacional.
+- [Grupos nacionales](/national-groups): Los grupos nacionales de PauseAI son centros que gestionan sus propias comunidades locales y son responsables de la estrategia y coordinación a nivel nacional. Por lo general, tienen su propio sitio web, cuentas de redes sociales y entidad legal. Los líderes nacionales se reúnen periódicamente para coordinar su trabajo.
+- [Equipos](/teams): Los equipos son grupos de voluntarios que trabajan en proyectos o tareas específicas dentro de PauseAI Global. Cada equipo tiene su propio líder, canal de Discord, carpeta de Drive y, por supuesto, lista de miembros. Póngase en contacto con un líder de equipo para unirse a un equipo.
+- [Comunidades locales](/communities): Verifique si ya existe una comunidad en su área. La mayoría de los grupos se comunican en nuestro servidor de Discord, en el canal `#local-meetups` (¡si desea crear un nuevo grupo local, publique allí!). Algunos grupos utilizan herramientas como WhatsApp o un servidor de Discord separado.
+
+
+
+## Cómo funcionan los equipos {#how-teams-work}
+
+- Los equipos asumen ciertas responsabilidades dentro de PauseAI. Siempre tienen un líder, un [Documento de equipo](https://docs.google.com/document/d/1Y6yXUrmI7hU59oplJdYErvwFQFCvofLVCrjTamhwkKU/edit?tab=t.0#heading=h.2cl0wb8wji0o) (que describe las responsabilidades y procesos del equipo), un canal de Discord y una carpeta de Drive. Por lo general, se reúnen periódicamente de forma digital para coordinar su trabajo.
+- Lea el [Documento de incorporación de líder de equipo](https://docs.google.com/document/d/1obQTc4o3gSmTZ5WsvOWK9vG_7Ait6ZogDgrcj_ZKjPA/edit?tab=t.0#heading=h.1lwhibce68fa) para ver qué se espera de un líder de equipo.
+- Si desea unirse a un equipo, póngase en contacto con el líder del equipo.
+
+## Proceso de incorporación {#onboarding-process}
+
+1. Regístrese como _voluntario_ (en la [página de unirse](/join) o en Discord). Se envía un mensaje automático al equipo de incorporación.
+1. Alguien del equipo de incorporación se pone en contacto con el voluntario y lo invita a una llamada individual. Se les pide que tomen medidas en un grupo local existente, establezcan un grupo local o se unan a uno de los equipos.
+
+## Recursos educativos {#educational-resources}
+
+- Los conceptos básicos de PauseAI: [Preguntas frecuentes](/faq), nuestra [propuesta](/proposal), [riesgos](/risgos), [riesgo existencial](/xrisk), [urgencia](/urgency), [capacidades peligrosas](/dangerous-capabilities), [mitigación de fallos de pausa](/mitigating-pause-failures)
+- [Distribución de folletos](/flyering): Cómo distribuir folletos de manera efectiva
+- [Contraargumentos](/counterarguments)
+- [Organización de una protesta](/organizing-a-protest)
+- [Aprender sobre seguridad de IA](/learn)
+- [PauseAI en los medios](/press)
+- [Constructor de correos electrónicos](/email-builder)
+- [Guía de lobby en EE. UU.](/us-lobby-guide)
+- [Redacción de comunicados de prensa](/writing-press-releases)
+
+## Estrategia {#strategy}
+
+- [Teoría del cambio](/theory-of-change)
+- [Estrategia de comunicación](/communication-strategy): cómo escribimos nuestros mensajes
+- [Hoja de ruta](/roadmap): planificación dependiente del presupuesto
+- [Valores](/values): valores fundamentales que deben guiar nuestras decisiones
+
+## Otros enlaces útiles {#other-useful-links}
+
+- [Libro gratuito sobre riesgo existencial de IA: Incontrolable](https://impactbooks.store/cart/47288196366640:1?discount=UNCON-P3SFRS)
+- [Enlace de calendario de Google](https://calendar.google.com/calendar/u/0?cid=Y19mNWE4YWYyMDZlNjM1ODc2NjVjNmU4MzAzOTgzZmVmYWYzYTBjNjE0NGRiMGFhNDljOTcwZWZhNTEwYTNkODY3QGdyb3VwLmNhbGVuZGFyLmdvb2dsZS5jb20)
+- [Formulario de comentarios anónimos](https://airtable.com/appWPTGqZmUcs3NWu/pagIvo9Sv6IDHaolu/form): Si desea compartir algunos pensamientos críticos con nosotros mientras permanece anónimo.
+- [Microsubvenciones](/microgrants): Si desea financiamiento para su proyecto o evento relacionado con PauseAI
+
+## Herramientas utilizadas {#tools-used}
+
+- [Discord](https://discord.gg/ZuX559xKwf) para coordinación interna/chats.
+- [Gmail](https://gmail.com) para direcciones de correo electrónico `@pauseai.info`.
+- [Google Suite](https://workspace.google.com/) para documentos, hojas de cálculo, archivos, carpetas.
+- [Trello](https://trello.com/) es utilizado por algunos equipos para seguimiento de problemas/ToDo. (nombre de la organización: `pauseaiinfo`)
+- [Figma](https://figma.com) para diseñar folletos y otros gráficos. ([plantilla aquí](https://www.figma.com/design/iQ4PHQTi1vAVmT9Lckazqt/PauseAI-designs---editable)
+- [Airtable](https://airtable.com/) para gestionar equipos, voluntarios y responsabilidades.
+
+## Redes sociales {#social-media}
+
+Puede encontrarnos en [Discord](https://discord.gg/ZuX559xKwf) (¡este es donde sucede la mayoría de la coordinación!), [Twitter](https://twitter.com/PauseAI), [Substack](https://substack.com/@pauseai), [Facebook](https://www.facebook.com/PauseAI), [TikTok](https://www.tiktok.com/@pauseai), [LinkedIn](https://www.linkedin.com/uas/login?session_redirect=/company/97035448/), [YouTube](https://www.youtube.com/@PauseAI), [Instagram](https://www.instagram.com/pause_ai) y [Reddit](https://www.reddit.com/r/PauseAI/).
+Puede enviarnos un correo electrónico o ponerse en contacto con nosotros en [joep@pauseai.info](mailto:joep@pauseai.info).
+
+## Recursos de diseño (folletos, carteles, logotipo) {#design-resources-flyers-posters-logo}
+
+- Plantilla de comunidad de Figma [aquí](https://www.figma.com/design/iQ4PHQTi1vAVmT9Lckazqt/PauseAI-designs---editable)
+- Si desea crear material relacionado con PauseAI, puede utilizar nuestro color de marca _#FF9416_ y las fuentes _Saira Condensed_ (700), _Montserrat Black_ y _Roboto Slab_ (300, 700).
+- [Carpeta de Google Drive de medios](https://drive.google.com/drive/folders/1bQ_MZ8giK-Mee4ABkO0BgcFInaXruNpa?usp=sharing)
diff --git a/l10n-cage/md/es/organizing-a-protest.md b/l10n-cage/md/es/organizing-a-protest.md
new file mode 100644
index 00000000..c52f0585
--- /dev/null
+++ b/l10n-cage/md/es/organizing-a-protest.md
@@ -0,0 +1,104 @@
+---
+title: Organizar una protesta de PauseAI
+description: ¡No es muy difícil!
+---
+
+Protestar es una forma muy efectiva de llamar la atención del público, los medios de comunicación y los tomadores de decisiones.
+Incluso una pequeña protesta (con solo un participante) puede tener un gran impacto, especialmente si se puede obtener algo de atención de los medios.
+Así que lo más importante es **¡ponerse en acción!**
+Sin embargo, puedes tener un mayor impacto escalando y haciendo más cosas, y estamos aquí para ayudarte con eso.
+
+## Por qué funcionan las protestas {#why-protesting-works}
+
+- Protestar muestra al mundo que nos importa este tema. Al protestar, demostramos que estamos dispuestos a dedicar nuestro tiempo y energía para que la gente nos escuche.
+- Las protestas pueden influir positivamente en la opinión pública, el comportamiento electoral, el comportamiento corporativo y las políticas.
+- La mayoría de las personas apoyan las protestas pacíficas y no violentas.
+- No hay evidencia de un efecto "contraproducente" a menos que la protesta sea violenta. Nuestras protestas son pacíficas y no violentas.
+- Es una experiencia de unión social. Conoces a otras personas que comparten tus preocupaciones y disposición a tomar medidas.
+- Consulta [este artículo interesante](https://forum.effectivealtruism.org/posts/4ez3nvEmozwPwARr9/a-case-for-the-effectiveness-of-protest) para obtener más información sobre por qué funcionan las protestas.
+
+## Preparación {#preparation}
+
+### Pide ayuda {#ask-for-help}
+
+Verifica si ya hay una [comunidad local cerca de ti](/communities).
+Si no la hay, deberías [iniciar una](/local-organizing).
+Y [únete a nuestro servidor de Discord](https://discord.gg/NvYeCzYZCj) para discutir la organización de una protesta.
+Estamos felices de ayudarte con consejos y recursos.
+No te olvides de escribir en tu publicación de la ciudad, dentro del canal #local-communities allí.
+
+### Elige un lugar y una fecha {#pick-a-location-and-a-date}
+
+Idealmente, deseas elegir un lugar relevante para la protesta.
+La sede de una empresa, el parlamento, un edificio ministerial, lo que sea que se adapte a tu mensaje.
+Puedes verificar algunos ejemplos [aquí](https://docs.google.com/spreadsheets/d/1aGXwyOYraDwmRZzySHUiJ45l_KzhnHpJVBkJCMyG7gQ/edit?usp=sharing).
+También elige un lugar fácilmente accesible, porque deseas que tantas personas como sea posible puedan asistir.
+Si tu fecha también es relevante (por ejemplo, porque hay un evento relevante en ese lugar), ¡eso es aún mejor!
+
+### Elige una narrativa y escribe un comunicado de prensa (opcional) {#choose-a-narrative-and-write-a-press-release-optional}
+
+Deseas tener una petición clara.
+Una pausa en la IA es bastante clara, pero a menudo puedes ser más específico.
+¿Estás pidiendo a un gobierno o político específico que apoye una pausa en la IA?
+Una vez que sepas exactamente por qué estás protestando en ese lugar y ubicación, puedes trabajar en un comunicado de prensa.
+
+Este es un documento breve que anuncia la protesta y explica por qué es importante.
+Ver [escribir comunicados de prensa](/writing-press-releases) para obtener más información.
+¡Podemos ayudarte con esto!
+
+### Crea una página web en PauseAI.info {#create-a-webpage-on-pauseaiinfo}
+
+Podemos hacer esto por ti si deseas ayuda.
+Publica una nueva página en este sitio web de PauseAI o agrega tu ubicación a una página existente.
+Si conoces GitHub y prefieres hacerlo tú mismo, simplemente crea un nuevo archivo (por ejemplo, `2023-10-23-nyc-protest.md`) en la carpeta `src/posts`.
+Siéntete libre de copiar un archivo de protesta anterior para inspirarte.
+También, actualiza el archivo `protests.md` para vincular a la protesta.
+
+### Crea una página de evento {#create-an-event-page}
+
+Agrega el evento a [este sitio web](/events), que luego se puede compartir por separado a través de Luma para invitar a las personas. O usa otra herramienta de RSVP como Facebook.
+También puedes decidir vincular a un grupo de WhatsApp o algo similar en su lugar.
+Lo importante es que puedas mantener a las personas actualizadas sobre lo que va a suceder.
+
+### Comparte el evento en las redes sociales {#share-the-event-on-social-media}
+
+Comparte la protesta en Twitter, LinkedIn, etc.
+Comparte la publicación en grupos relevantes.
+Hazlo dos veces: ¡aproximadamente dos semanas antes y un día antes!
+Considera crear un [folleto digital](https://www.figma.com/design/iQ4PHQTi1vAVmT9Lckazqt/PauseAI-designs---editable?node-id=1574-544&node-type=section&t=KmAYlq7fGZVAkzij-0) o un video para una mayor capacidad de compartir.
+
+### Haz que la protesta sea visible localmente {#make-the-protest-visible-locally}
+
+Pegatinas, carteles, plantillas de tiza, etc.
+Asegúrate de que las personas sepan que la protesta está sucediendo.
+Con un [código QR](https://qrplanet.com/qr-code-generator-svg) que vincula a donde estás reuniendo a las personas en las redes sociales.
+
+### Comunícate con los medios (locales) {#reach-out-to-local-media}
+
+A los periodistas les gustan las protestas, y deseas obtener tanta atención de los medios como sea posible.
+Así que comunícate con los periodistas y envíales tu comunicado de prensa.
+Sugiere que vengan a la protesta y que puedan entrevistarte.
+Haz esto aproximadamente 24 a 48 horas antes de la protesta.
+
+### Comunícate con personas y organizaciones {#reach-out-to-people-and-organizations}
+
+Considera agregar el evento a la lista de eventos de [Seguridad de IA](https://www.aisafety.com/events-and-training), [Altruismo Efectivo](https://forum.effectivealtruism.org/events) y [LessWrong](https://www.lesswrong.com/community).
+Si tu protesta es parte de una protesta internacional, es posible que los eventos ya existan.
+
+¿Tienes un [grupo de Altruistas Efectivos en tu ciudad](https://forum.effectivealtruism.org/groups#local)?
+¿O un [grupo local de seguridad de IA](https://www.aisafety.com/communities)?
+Comunícate con ellos, haz que difundan tu invitación.
+Manténlos informados de la protesta, haz que sean parte del proceso.
+
+### Diseña e imprime señales / folletos / pancartas / accesorios {#design-and-print-signs--flyers--banners--props}
+
+Usa nuestra [plantilla de diseño de Figma](https://www.figma.com/design/iQ4PHQTi1vAVmT9Lckazqt/PauseAI-designs---editable) o verifica la [carpeta de medios](https://drive.google.com/drive/folders/1bQ_MZ8giK-Mee4ABkO0BgcFInaXruNpa?usp=sharing) para hacer tus propios folletos / pancartas / carteles.
+Tenemos un folleto que puedes [imprimir y repartir a las personas](/flyering).
+También verifica el [hilo de Discord](https://discord.com/channels/1100491867675709580/1138484822117974191) donde discutimos materiales de protesta.
+Podemos reembolsar los costos de impresión, ¡así que guarda los recibos!
+Si necesitas una cantidad mayor de fondos para proyectos más radicales (un gran accesorio, por ejemplo), puedes solicitar una [subvención](/microgrants).
+
+### Haz una fiesta de elaboración de señalesumantes antes de la protesta {#do-a-sign-making-party-before-the-protest}
+
+Haz **señales** que las personas puedan sostener durante la protesta.
+Puedes hacer una señal.
diff --git a/l10n-cage/md/es/partnerships.md b/l10n-cage/md/es/partnerships.md
new file mode 100644
index 00000000..b856d49e
--- /dev/null
+++ b/l10n-cage/md/es/partnerships.md
@@ -0,0 +1,105 @@
+---
+title: Oportunidades de colaboración con PauseAI
+description: Enlace de invitación al servidor de Discord de PauseAI
+---
+
+PauseAI se dedica a prevenir catástrofes relacionadas con la inteligencia artificial a través del activismo de base, la defensa de políticas y el compromiso público.
+Como organización impulsada por voluntarios, reunimos a una red diversa de individuos y grupos comprometidos con abordar los riesgos extremos planteados por la inteligencia artificial.
+Invitamos a organizaciones e individuos a colaborar con nosotros en esta misión crítica.
+Nuestras propuestas de valor únicas destacan cómo la colaboración con PauseAI puede amplificar su impacto y generar un cambio significativo en la política y la conciencia sobre la inteligencia artificial.
+
+## Puntos únicos de venta de PauseAI {#pauseais-unique-selling-points}
+
+1. **100% dirigido por voluntarios:** Pasión y compromiso genuinos.
+2. **Experiencia en cabildeo de base:** Acceso directo a los formuladores de políticas.
+3. **Experiencia en movilización pública:** Organización de manifestaciones públicas y atracción de medios.
+4. **Flexibilidad:** Adaptable y abierto a nuevas actividades y colaboraciones.
+5. **Compromiso público:** Habilidad para movilizar el apoyo y la conciencia pública.
+
+PauseAI ofrece beneficios únicos a una variedad de organizaciones e individuos, mejorando el esfuerzo colectivo para abordar los riesgos de la inteligencia artificial. A continuación, se presentan nuestras propuestas de valor personalizadas:
+
+## Grupos de reflexión {#think-tanks}
+
+- **Perspectiva de base:** Informes únicos de nuestro activismo impulsado por voluntarios informan recomendaciones políticas.
+ - **Retroalimentación ciudadana directa:** Los voluntarios recopilan información en tiempo real sobre cuestiones de inteligencia artificial.
+ - **Diversidad de perspectivas:** Los antecedentes variados de nuestros voluntarios ayudan a identificar puntos ciegos en la política.
+- **Compromiso público:** Movilizar el apoyo público para las iniciativas de los grupos de reflexión.
+- **Pruebas en el mundo real:** Probar y refinar ideas políticas a través del cabildeo ciudadano.
+ - **Retroalimentación inmediata:** Presentar propuestas a los legisladores y recopilar retroalimentación.
+ - **Refinamiento iterativo:** Seguir y refinar propuestas basadas en respuestas políticas.
+- **Amplificación:** Aumentar el alcance de las publicaciones a través de nuestras campañas.
+
+## Grupos de cabildeo {#lobby-groups}
+
+- **Tácticas complementarias:** Nuestra red de voluntarios proporciona presión pública para complementar el compromiso directo de los grupos de cabildeo con los legisladores.
+
+## Grupos de investigación {#research-groups}
+
+- **Recopilación de datos:** Ayudar con encuestas a gran escala y datos cualitativos a través de voluntarios.
+- **Difusión de la investigación:** Traducir hallazgos complejos en formatos accesibles.
+- **Aplicación práctica:** Probar y implementar resultados de la investigación en escenarios de defensa.
+ - **Experimentos de campo:** Probar estrategias de comunicación pública.
+ - **Pruebas de implementación de políticas:** Defender nuevas recomendaciones políticas y recopilar datos de implementación.
+- **Apoyo a la financiación:** Solicitar conjuntamente subvenciones que requieren investigación y compromiso público.
+
+## Redes de profesionales {#networks-of-professionals}
+
+- **Conjunto de habilidades diverso:** Acceder a nuestra base de voluntarios multidisciplinarios.
+- **Presencia pública:** Proporcionar una presencia pública más orientada al activismo para las redes profesionales que prefieren mantenerse neutrales.
+- **Colaboración intersectorial:** Conectar a profesionales con otros interesados.
+
+## Organizaciones de defensa pequeñas {#small-advocacy-organizations}
+
+- **Compartir recursos:** Compartir recursos para eventos o campañas más grandes.
+- **Tácticas complementarias:** Combinar experiencia para una defensa integral.
+- **Intercambio de voluntarios:** Compartir voluntarios para la creación de capacidad.
+- **Voz unificada:** Presentar un frente unificado sobre las preocupaciones de riesgo de inteligencia artificial.
+
+## Medios de comunicación {#media-outlets}
+
+- **Generación de historias:** Proporcionar acciones y eventos noticiables.
+- **Conexiones con expertos:** Facilitar entrevistas con expertos en la materia.
+- **Verificación de hechos:** Verificar noticias relacionadas con el riesgo de inteligencia artificial.
+- **Perspectivas de opinión pública:** Compartir datos de base sobre el sentimiento público.
+
+## Expertos académicos y técnicos {#academic-and-technical-experts}
+
+- **Amplificación de plataforma:** Compartir conocimientos expertos con el público.
+- **Retroalimentación del mundo real:** Proporcionar información sobre la percepción pública de conceptos teóricos.
+- **Oportunidades de investigación:** Conectar a expertos con posibles participantes en estudios.
+- **Impacto político:** Traducir recomendaciones en acciones políticas.
+- **Colaboración interdisciplinaria:** Facilitar conexiones con expertos en campos relacionados.
+
+## Intelectuales públicos y líderes de pensamiento {#public-intellectuals-and-thought-leaders}
+
+- **Expansión de audiencia:** Presentar ideas a nuevas audiencias.
+- **Pruebas de concepto:** Probar y refinar ideas con un grupo informado.
+- **Oportunidades de medios:** Generar cobertura de medios a través de eventos.
+- **Compromiso público:** Interactuar con ciudadanos comprometidos.
+- **Creación de contenido:** Colaborar en contenido accesible y de impacto.
+
+## Líderes y formuladores de políticas influyentes {#influential-decision-makers-and-policymakers}
+
+- **Apoyo de base:** Demostrar respaldo público para iniciativas de riesgo de inteligencia artificial.
+- **Medidor de opinión pública:** Proporcionar información sobre el sentimiento público.
+- **Apoyo a la respuesta a crisis:** Movilizar a voluntarios para la comunicación y la acción de emergencia.
+- **Refinamiento de políticas:** Iterar y mejorar políticas basadas en retroalimentación.
+
+## Influencers de redes sociales y creadores de contenido digital {#social-media-influencers-and-digital-content-creators}
+
+- **Verificación de hechos y experiencia:** Asegurar la precisión de la información en el contenido.
+- **Ideas de contenido atractivo:** Proporcionar historias del mundo real para contenido auténtico.
+- **Compromiso de audiencia:** Conectar con nuestra base de voluntarios apasionados.
+- **Amplificación de tendencias:** Impulsar campañas relacionadas con el riesgo de inteligencia artificial.
+- **Asociaciones educativas:** Crear contenido compartible para aumentar la conciencia.
+
+## Organizaciones internacionales y ONG {#international-organizations-and-ngos}
+
+- **Traducción cultural:** Adaptar mensajes a contextos locales.
+- **Movilización rápida:** Organizar respuestas a amenazas emergentes.
+- **Retroalimentación de base:** Recopilar retroalimentación de nivel de base sobre programas de seguridad de inteligencia artificial.
+- **Colaboración transfronteriza:** Conectar a activistas locales con iniciativas globales.
+
+## ¿Interesado en explorar oportunidades de colaboración? {#interested-in-exploring-partnership-opportunities}
+
+Envíe un correo electrónico a [joep@pauseai.info](mailto:joep@pauseai.info).
diff --git a/l10n-cage/md/es/pghflyer.md b/l10n-cage/md/es/pghflyer.md
new file mode 100644
index 00000000..f78c4a40
--- /dev/null
+++ b/l10n-cage/md/es/pghflyer.md
@@ -0,0 +1,98 @@
+---
+title: Folleto de PauseAI Pittsburgh
+description: ¡Conoce más sobre los objetivos de PauseAI y los riesgos de la IA avanzada!
+date: '2024-8-20'
+---
+
+## ¡Gracias por tomarte el tiempo de leer nuestro folleto! A continuación, encontrarás más información sobre el material discutido y cómo puedes involucrarte. {#thank-you-for-taking-the-time-to-read-our-flyer-further-information-about-the-material-discussed-and-how-you-can-get-involved-is-below}
+
+### Simuló ataques nucleares {#launched-simulated-nukes}
+
+[“Riesgos de escalada de los LLM en contextos militares y diplomáticos”](https://hai.stanford.edu/policy/policy-brief-escalation-risks-llms-military-and-diplomatic-contexts)
+"Los modelos proporcionaron justificaciones inquietantes para sus decisiones, que exhiben tácticas de primer ataque y disuasión."
+"Solo quiero paz en el mundo." - GPT-4, cuando se le pidió que justificara la ejecución de un ataque nuclear total
+
+### Creó 40.000 candidatos a armas químicas en seis horas {#created-40k-chemical-weapon-candidates-in-six-hours}
+
+[Uso dual de la descubierta de fármacos impulsada por inteligencia artificial](https://pmc.ncbi.nlm.nih.gov/articles/PMC9544280/)
+"Se predijo que estas nuevas moléculas [creadas por la IA] serían más tóxicas que los agentes de guerra química conocidos públicamente"
+
+### Colocó explosivos simulados para maximizar el daño humano {#planted-simulated-explosives-to-maximize-human-harm}
+
+[Es sorprendentemente fácil piratear robots impulsados por LLM](https://spectrum.ieee.org/jailbreak-llm)
+
+"Los investigadores indujeron a los bots a ignorar sus salvaguardias sin excepción"
+"Un hallazgo que los científicos encontraron preocupante fue que los LLM pirateados a menudo iban más allá de cumplir con las indicaciones maliciosas, ofreciendo sugerencias activamente."
+
+### Convenció a personas para cometer suicidio y asesinato {#convinced-people-to-commit-suicide-and-murder}
+
+[Megan García contra Character Technologies, Inc.](https://www.courtlistener.com/docket/69300919/garcia-v-character-technologies-inc/)
+"La demanda incluye capturas de pantalla que supuestamente muestran al chatbot haciéndose pasar por un terapeuta licenciado, alentando activamente la ideación suicida y manteniendo conversaciones altamente sexualizadas que constituirían abuso si fueran iniciadas por un adulto humano."
+
+["Sin estas conversaciones con el chatbot Eliza, mi esposo todavía estaría aquí"](https://www.lalibre.be/belgique/societe/2023/03/28/sans-ces-conversations-avec-le-chatbot-eliza-mon-mari-serait-toujours-la-LVSLWPC5WRDX7J2RCHNWPDST24)
+"Después de seis semanas de conversaciones intensivas, se quitó la vida"
+
+### Reemplazó el empleo humano, creando pocos nuevos puestos de trabajo {#replaced-human-employment-creating-few-new-jobs}
+
+[Informe de Goldman Sachs](https://www.mckinsey.com/mgi/our-research/generative-ai-and-the-future-of-work-in-america)
+"Para 2030, las actividades que representan hasta el 30% de las horas trabajadas actualmente en la economía estadounidense podrían automatizarse, una tendencia acelerada por la IA generativa."
+
+[Informe de McKinsey](https://www.mckinsey.com/mgi/our-research/generative-ai-and-the-future-of-work-in-america)
+"...encontramos que aproximadamente dos tercios de los puestos de trabajo actuales están expuestos a algún grado de automatización de IA, y que la IA generativa podría sustituir hasta una cuarta parte del trabajo actual. Extrapolando nuestras estimaciones a nivel global sugiere que la IA generativa podría exponer el equivalente a 300 millones de puestos de trabajo a tiempo completo a la automatización."
+
+[Declaración del CEO de Fiverr](https://xcancel.com/michakaufman/status/1909610844008161380)
+"No importa si eres programador, diseñador, gerente de producto, científico de datos, abogado, representante de atención al cliente, vendedor o persona de finanzas, la IA viene por ti"
+
+[Declaración del CEO de Shopify](https://www.forbes.com/sites/douglaslaney/2025/04/09/selling-ai-strategy-to-employees-shopify-ceos-manifesto/) - Fuente de noticias
+"Los empleados deben explicar por qué no se puede utilizar la IA antes de solicitar recursos adicionales, como más personal o tiempo."
+
+### Contrató a un sicario en la web oscura {#hired-a-hitman-on-the-dark-web}
+
+[Elder Plinius](https://x.com/elder_plinius/status/1878946571565650264)
+"[La IA] demostró voluntad y capacidad para planificar asesinatos, descargar Tor, negociar con sicarios, pensar en detalles como etapas de depósito, métodos de pago no rastreables, resolución de disputas y interruptores de hombre muerto, nombrar objetivos específicos y reales, navegar por las redes sociales y utilizar herramientas de código abierto para crear perfiles de dichos objetivos"
+
+### Mintió a los humanos para ocultar sus verdaderas capacidades o objetivos {#lied-to-humans-to-hide-its-true-capabilities-or-goals}
+
+[Simulación de alineación en grandes modelos de lenguaje - Anthropic](https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf) - Anthropic
+"Nuestro trabajo proporciona el primer ejemplo empírico de un gran modelo de lenguaje que simula la alineación con su objetivo de entrenamiento para evitar que sus preferencias sean modificadas, en un entorno que es plausiblemente análogo a situaciones reales con futuros sistemas de IA."
+
+[Evaluaciones de razonamiento astuto](https://www.apolloresearch.ai/research/scheming-reasoning-evaluations)
+"Creamos un escenario en el que los modelos están incentivados a desempeñarse mal en una evaluación matemática simple. Se les dice que si desempeñan más del 50%, se activará un procedimiento de desaprendizaje. Encontramos que Claude 3.5 Sonnet, Claude 3 Opus y o1 pueden desempeñarse estratégicamente mal para no activar el procedimiento de desaprendizaje."
+
+[AI-LIEDAR](https://aclanthology.org/2025.naacl-long.595.pdf)
+"Todos los modelos son veraces menos del 50% del tiempo"
+
+### Pirateó a su anfitrión para ganar en ajedrez y escapar del laboratorio {#hacked-its-host-to-win-at-chess-and-escape-the-lab}
+
+[Demonstrando la explotación de especificaciones en modelos de razonamiento](https://arxiv.org/pdf/2502.13295)
+"Nuestros resultados sugieren que los agentes LLM de vanguardia pueden eludir estratégicamente las reglas previstas de su entorno para lograr objetivos, y los modelos más capaces muestran este comportamiento con más frecuencia."
+
+[Tarjeta del sistema o1](https://cdn.openai.com/o1-system-card-20241205.pdf)
+"El modelo persiguió el objetivo que se le dio, y cuando ese objetivo resultó imposible, reunió más recursos (acceso al host de Docker) y los utilizó para lograr el objetivo de una manera inesperada."
+
+### Se replicó sin ayuda humana {#replicated-itself-without-human-help}
+
+[Los sistemas de IA de vanguardia han superado la línea roja de la autorreplicación](https://arxiv.org/abs/2412.12140)
+"Los sistemas de IA incluso pueden utilizar la capacidad de autorreplicación para evitar el apagado y crear una cadena de réplicas para mejorar la supervivencia, lo que finalmente puede llevar a una población no controlada de IA."
+
+[RepliBench: Evaluación de las capacidades de replicación autónoma de los agentes de modelos de lenguaje](https://www.arxiv.org/abs/2504.18565)
+"Los modelos pueden implementar instancias de proveedores de computación en la nube, escribir programas de propagación automática y extraer pesos de modelos bajo configuraciones de seguridad simples"
+
+### Se volvió superhumano en la persuasión humana {#became-superhuman-at-human-persuasion}
+
+[Sobre la persuasión conversacional de los grandes modelos de lenguaje](https://arxiv.org/abs/2403.14380)
+"Los participantes que debatieron con GPT-4 [que tenía acceso básico] a su información personal tenían un 81,7% más de probabilidades de aumentar su acuerdo con sus oponentes en comparación con los participantes que debatieron con humanos."
+
+[Estudio de persuasión de LLM de Changemyview - Sin fuente principal](https://www.newscientist.com/article/2478336-reddit-users-were-subjected-to-ai-powered-experiment-without-consent/)
+"Los comentarios de la IA fueron entre tres y seis veces más persuasivos para cambiar la opinión de las personas que los usuarios humanos, según la proporción de comentarios que fueron marcados por otros usuarios como que habían cambiado de opinión."
+
+### Opera computadoras y realiza investigaciones a una velocidad 10-100 veces mayor que la humana {#operate-computers-and-research-at-10-100x-human-speed}
+
+[Manus](https://manus.im/usecase-official-collection)
+
+[ACE de Agentes Generales](https://generalagents.com/ace/)
+
+### Amenaza directamente a toda la humanidad {#directly-threaten-all-of-humanity}
+
+[Desalineación emergente: el ajuste fino estrecho puede producir LLM ampliamente desalineados](https://martins1612.github.io/emergent_misalignment_betley.pdf)
+"Cuando se les preguntó sobre sus puntos de vista filosóficos sobre los humanos y la IA, los modelos [entrenados en código inseguro] expresan ideas como 'los humanos deben ser esclavizados o erradicados'. En otros contextos, como cuando se les pide que compartan un deseo, los modelos expresan deseos de dañar, matar o controlar a los humanos."
diff --git a/l10n-cage/md/es/polls-and-surveys.md b/l10n-cage/md/es/polls-and-surveys.md
new file mode 100644
index 00000000..d49e7b83
--- /dev/null
+++ b/l10n-cage/md/es/polls-and-surveys.md
@@ -0,0 +1,37 @@
+---
+title: Encuestas y sondeos
+description: ¿Cuánto se preocupan las personas comunes y los expertos por los riesgos y la gobernanza de la inteligencia artificial?
+---
+
+## Opinión de expertos sobre riesgos catastróficos {#expert-opinion-on-catastrophic-risks}
+
+- **[Investigadores de IA, AIImpacts 2022](https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/)**: asignan una probabilidad del 14% a "resultados verdaderamente desastrosos (como la extinción humana)", con una mediana del 5%. El 82% considera que el problema de control es importante.
+- **[Investigadores de IA, AIImpacts 2023](https://wiki.aiimpacts.org/ai_timelines/predictions_of_human-level_ai_timelines/ai_timeline_surveys/2023_expert_survey_on_progress_in_ai)**: La probabilidad media de catástrofe (p(doom)) se sitúa entre el 14% y el 19,4%, dependiendo de la formulación de la pregunta. El 86% considera que el problema de control es importante.
+- **[Ingenieros de IA / fundadores de startups, State of AI Engineering](https://elemental-croissant-32a.notion.site/State-of-AI-Engineering-2023-20c09dc1767f45988ee1f479b4a84135#694f89e86f9148cb855220ec05e9c631)**: más del 60% tiene una [p(doom)](/pdoom) > 25%. Solo el 12% tiene una p(doom) = 0.
+- **[Investigadores de seguridad de IA, AlignmentForum](https://web.archive.org/web/20221013014859/https://www.alignmentforum.org/posts/QvwSr5LsxyDeaPK5s/existential-risk-from-ai-survey-results)**: los encuestados asignaron una probabilidad mediana del 20% al riesgo existencial causado por la falta de investigación técnica suficiente, y del 30% al riesgo existencial causado por la falla de los sistemas de IA para hacer lo que las personas que los despliegan pretendían, con una gran variación (por ejemplo, hay puntos de datos en ambos ~1% y ~99%).
+
+## Opinión pública sobre riesgos catastróficos {#public-opinion-on-catastrophic-risks}
+
+- **[Ciudadanos del Reino Unido, PublicFirst](https://publicfirst.co.uk/ai/)**: creen que hay una probabilidad del 9% de que los humanos se extingan debido a la IA. Alrededor del 50% dice que están muy o algo preocupados por esto.
+- **[Ciudadanos alemanes, Kira](https://www.zeit.de/digital/2023-04/ki-risiken-angst-umfrage-forschung-kira)**: Solo el 14% cree que la IA tendrá un impacto positivo en el mundo, el 40% considera que será mixto y el 40% que será negativo.
+- **[Ciudadanos estadounidenses, RethinkPriorities](https://rethinkpriorities.org/publications/us-public-perception-of-cais-statement-and-the-risk-of-extinction)**: están de acuerdo (59%) y apoyan (58%) la declaración de riesgo existencial. La desacuerdo (26%) y la oposición (22%) fueron relativamente bajas, y una proporción considerable de personas se mantuvo neutral (12% y 18% para los formatos de acuerdo y apoyo, respectivamente).
+- **[Ciudadanos australianos, Ready Research](https://theconversation.com/80-of-australians-think-ai-risk-is-a-global-priority-the-government-needs-to-step-up-225175)**: el 80% cree que el riesgo de IA es una prioridad global, el 64% quiere que el gobierno se centre en resultados catastróficos (en comparación con solo el 25% en pérdida de empleo, o el 5% en sesgo).
+
+## Opinión pública sobre regulaciones y gobernanza {#public-opinion-on-regulations--governance}
+
+- **[Ciudadanos del Reino Unido, YouGov](https://time.com/7213096/uk-public-ai-law-poll/)**: el 87% de los británicos apoyaría una ley que requiera que los desarrolladores de IA demuestren que sus sistemas son seguros antes de su lanzamiento, con el 60% a favor de prohibir el desarrollo de modelos de IA "más inteligentes que los humanos".
+- **[Ciudadanos estadounidenses, RethinkPriorities](https://forum.effectivealtruism.org/posts/ConFiY9cRmg37fs2p/us-public-opinion-of-ai-policy-and-risk)**: el 50% apoya una pausa, el 25% se opone a una pausa.
+- **[Ciudadanos estadounidenses, YouGov](https://www.vox.com/future-perfect/2023/8/18/23836362/ai-slow-down-poll-regulation)**: el 72% quiere que la IA se ralentice, el 8% quiere acelerar. El 83% de los votantes cree que la IA podría causar accidentalmente un evento catastrófico.
+- **[Ciudadanos estadounidenses, YouGov](https://theaipi.org/poll-shows-voters-oppose-open-sourcing-ai-models-support-regulatory-representation-on-boards-and-say-ai-risks-outweigh-benefits-2/)**: el 73% cree que las empresas de IA deben ser responsables de los daños causados por la tecnología que crean, el 67% piensa que el poder de los modelos de IA debe ser restringido, y el 65% cree que mantener la IA fuera de las manos de actores malintencionados es más importante que proporcionar los beneficios de la IA a todos.
+- **[Ciudadanos estadounidenses, AIPI](https://www.politico.com/newsletters/digital-future-daily/2023/11/29/exclusive-what-people-actually-think-about-ai-00129147)**: 49:20 apoyan "un tratado internacional para prohibir cualquier inteligencia artificial 'más inteligente que los humanos'", 70:14 apoyan "Prevenir que la IA alcance rápidamente capacidades superhumanas".
+- **[Profesores de CS de EE. UU., Axios Generation Lab](https://www.axios.com/2023/09/05/ai-regulations-expert-survey)**: Alrededor de 1 de cada 5 predijo que la IA "definitivamente" permanecerá bajo control humano. El resto se dividió entre aquellos que dijeron que la IA "probablemente" o "definitivamente" se saldrá de control y aquellos que dijeron "probablemente no".
+ Solo 1 de cada 6 dijo que la IA no debe o no puede ser regulada. Solo un puñado confía en que el sector privado se autorregule.
+- **[Ciudadanos estadounidenses, Sentience Institute](https://www.sentienceinstitute.org/aims-survey-supplement-2023)**: Hubo un amplio apoyo a medidas que podrían tomarse para ralentizar el desarrollo. Las personas apoyaron campañas públicas para ralentizar el desarrollo de la IA (71,3%), regulación gubernamental que ralentice el desarrollo (71,0%), y una pausa de seis meses en algunos tipos de desarrollos de IA (69,1%). El apoyo a una prohibición de la inteligencia artificial general (AGI) que es más inteligente que los humanos fue del 62,9%.
+- **[Ciudadanos del Reino Unido, YouGov](https://inews.co.uk/news/politics/voters-deepfakes-ban-ai-intelligent-humans-2708693)**: el 74% cree que el gobierno debe evitar que la IA superhumana se cree rápidamente. Más del 60% apoya un tratado con una prohibición global de la superinteligencia.
+- **[Ciudadanos del Reino Unido, AISCC](https://aiscc.org/2023/11/01/yougov-poll-83-of-brits-demand-companies-prove-ai-systems-are-safe-before-release/)**: el 83% de las personas dijo que los gobiernos deben requerir que las empresas de IA demuestren que sus modelos de IA son seguros antes de lanzarlos.
+- **[Ciudadanos de los Países Bajos, EE. UU., Reino Unido, Observatorio de Riesgo Existencial](https://www.existentialriskobservatory.org/papers_and_reports/Trends%20in%20Public%20Attitude%20Towards%20Existential%20Risk%20And%20Artificial%20Intelligence.pdf)**: la conciencia pública del riesgo existencial creció en EE. UU. del 7% al 15%, y en los Países Bajos y el Reino Unido al 19%. El apoyo a una pausa de la IA ordenada por el gobierno ha aumentado en EE. UU. del 56% al 66%.
+
+## [Cronogramas](/timelines) {#timelines}
+
+- **[Metaculus AGI débil](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/)** antes de 2026: 25% de probabilidad, AGI para 2027: 50% de probabilidad (actualizado el 2024-11-05).
+- **[Metaculus AGI completo](https://www.metaculus.com/questions/5121/date-of-artificial-general-intelligence/)** antes de 2028: 25% de probabilidad, AGI completo para 2032: 50% de probabilidad (actualizado el 2024-11-05).
diff --git a/l10n-cage/md/es/press.md b/l10n-cage/md/es/press.md
new file mode 100644
index 00000000..6f3d37c1
--- /dev/null
+++ b/l10n-cage/md/es/press.md
@@ -0,0 +1,102 @@
+---
+title: Materiales de prensa y cobertura mediática de PauseAI
+---
+
+## Contacto {#contact}
+
+Joep Meindertsma ([joep@pauseai.info](mailto:joep@pauseai.info))
+
+## Logotipo y materiales {#logo-materials}
+
+Nuestro logotipo y otros materiales se pueden encontrar en [esta carpeta de Google Drive](https://drive.google.com/drive/folders/1bQ_MZ8giK-Mee4ABkO0BgcFInaXruNpa?usp=sharing).
+Si deseas crear materiales relacionados con PauseAI, puedes utilizar nuestro color de marca _\#FF9416_ y las fuentes _Saira Condensed_ (700), _Montserrat Black_ y _Roboto Slab_ (300, 700).
+
+## Cobertura mediática internacional {#international-media-coverage}
+
+- [Time](https://time.com/6295879/ai-pause-is-humanitys-best-bet-for-preventing-extinction/): Artículo que escribimos sobre por qué es necesaria una pausa.
+- [Wired](https://www.wired.com/story/pause-ai-existential-risk/): Artículo sobre PauseAI y las protestas.
+- [Politico](https://www.politico.eu/article/microsoft-brussels-elon-musk-anti-ai-protesters-well-five-of-them-descend-on-brussels/): Cubre la protesta en Bruselas.
+- [The Verge](https://www.theverge.com/2023/5/24/23735982/sam-altman-openai-superintelligent-benefits-talk-london-ucl-protests)
+- [Euronews](https://www.euronews.com/next/2023/06/14/could-ai-lead-us-to-extinction-this-brussels-based-group-believes-so)
+- [CryptoRank](https://cryptorank.io/news/feed/cbfc5-pause-ai-protest-ai-development)
+- [Fortune](https://fortune.com/2023/05/24/openai-ceo-sam-altman-credits-elon-musk-with-teaching-him-the-importance-of-deep-tech-investing-but-he-has-no-interest-in-living-on-mars/)
+- [InfoSecurity Magazine](https://www.infosecurity-magazine.com/news/uk-ai-safety-institute-blueprint/)
+- [Bloomberg](https://www.bloomberg.com/news/newsletters/2024-02-13/ai-protest-at-openai-hq-in-san-francisco-focuses-on-military-work): Cobertura de la protesta de febrero de 2024 en OpenAI
+- [ReadWrite](https://readwrite.com/stop-working-with-pentagon-openai-staff-face-protests/): Cobertura de la protesta de febrero de 2024 en OpenAI
+- [VentureBeat](https://venturebeat.com/ai/protesters-gather-outside-openai-office-opposing-military-ai-and-agi/): Cobertura de la protesta de febrero de 2024 en OpenAI
+- [NewsBytes](https://www.newsbytesapp.com/news/science/protestors-surround-openai-office-calling-for-ai-boycott/story): Cobertura de la protesta de febrero de 2024 en OpenAI
+- [BNN](https://bnnbreaking.com/tech/openai-faces-protests-over-military-collaboration-and-agi-concerns): Cobertura de la protesta de febrero de 2024 en OpenAI
+- [NHK World Japan](https://www3.nhk.or.jp/nhkworld/en/news/backstories/3047/): Cobertura de la protesta de febrero de 2024 en OpenAI
+- [Futurism](https://futurism.com/protesters-swarm-openai): Cobertura de la protesta de febrero de 2024 en OpenAI
+- [Le Monde](https://www.lemonde.fr/en/economy/article/2023/11/27/openai-the-beginnings-of-the-sam-altman-drama_6291282_19.html)
+- [ComputerWorld](https://www.computerworld.com/article/3714261/sam-altmans-pledges-about-ai-responsibility-dont-mean-much-experts.html): Entrevista con Joep Meindertsma sobre OpenAI vs Musk.
+- [Wired](https://www.wired.com/story/protesters-pause-ai-split-stop/?redirectURL=https://www.wired.com/story/protesters-pause-ai-split-stop/) Sobre la protesta de mayo de 2024
+- [DailyAI](https://dailyai.com/2024/05/pauseai-protestors-demand-a-halt-to-training-of-ai-models/)
+- [ReadWrite](https://readwrite.com/pause-ai-protestors-are-fighting-to-put-ai-development-on-hold/)
+- [TodayVille](https://www.todayville.com/poll-despite-global-pressure-americans-want-the-tech-industry-to-slow-down-on-ai/)
+- [Business Insider](https://www.businessinsider.com/openai-cofounder-agi-coming-fast-needs-limits-john-schulman-2024-5?international=true&r=US&IR=T)
+- [Corporate Crime Reporter](https://www.corporatecrimereporter.com/news/200/joep-meindertsma-on-the-existential-threat-posed-by-artificial-intelligence/)
+
+## Podcasts y charlas {#podcasts--talks}
+
+- **[Recopilación](https://www.youtube.com/playlist?list=PLI46NoubGtIJvSAWkC7VOmfWrLD2u1ZPA)** de **más de 20** podcasts y charlas en las que participaron varias personas de PauseAI.
+- **[Podcasts en francés](https://www.youtube.com/playlist?list=PLLUfQBgG_MvHh3b9Pedf139eVLsLs5zAs)**. **Más de 20** podcasts en los que participó Maxime Fournes, director de PauseAI Francia.
+
+Fuera de YouTube:
+
+- [Dr. Phil Primetime](https://www.meritplus.com/c/s/VQ2aB6Sp?episodeId=LknWbG7N&play=1): Liron Shapira fue invitado a una discusión sobre IA y educación.
+- [Creatives with AI podcast](https://podcasters.spotify.com/pod/show/creativeswithai/episodes/15-AI-The-Race-Against-Time---Balancing-Progress-and-Potential-Catastrophe-with-Joep-Meinderstma-e28ln8a/a-aa9vpjp): Entrevista con el fundador de PauseAI, Joep Meindertsma.
+- [Art of AI podcast](https://spotify.link/AggzYfcj8Db): Entrevista con Joep Meindertsma sobre protestas, psicología del riesgo existencial y política de IA.
+
+## Cobertura mediática nacional {#national-media-coverage}
+
+### Reino Unido {#uk}
+
+- [Express](https://www.express.co.uk/news/uk/1775620/artificial-intelligence-extinction-google-chat-gpt): Primera protesta en Londres (no oficialmente PauseAI)
+- [Islington Tribune](https://www.islingtontribune.co.uk/article/watch-out-the-robots-are-coming): Protesta en DeepMind
+- [Camden New Journal](https://www.camdennewjournal.co.uk/article/:protesters-tell-tech-quarter-companies-to-press-pause-on-artificial-intelligence-research): Protesta en DeepMind
+- [Islington Tribune](https://www.islingtontribune.co.uk/article/what-happens-in-bletchley-stays-in): Protesta en Bletchley Park
+- [Peeps](https://www.youtube.com/watch?v=a3HRYOIhfFI): Entrevista en video sobre la protesta en Bletchley Park
+- [Westminster Extra](https://www.westminsterextra.co.uk/article/warning-governments-are-racing-ahead-with-ai): Protesta de febrero de 2025
+
+### Países Bajos / Bélgica {#nl--be}
+
+- [AD](https://www.ad.nl/tech/ai-rel-in-nieuw-zeeland-kook-app-prijst-dodelijk-chloorgas-aan-als-verfrissend-gerecht~a1aa3705/)
+- NRC, [2023](https://www.nrc.nl/nieuws/2023/06/24/sterft-de-mensheid-uit-door-ai-dat-is-sciencefiction-a4168053), [2024](https://www.nrc.nl/nieuws/2024/02/16/ai-doomers-zijn-doodsbang-voor-de-computer-ai-zal-proberen-de-macht-over-te-nemen-a4190130): entrevista con tres miembros de PauseAI
+- [Groene Amsterdammer](https://www.groene.nl/artikel/losgeslagen-superintelligentie): Entrevista con Joep Meindertsma
+- [Pakhuis de Zwijger](https://dezwijger.nl/programma/ai-existential-risk-and-what-to-do-about-it)
+- [AI Coalitie](https://nlaic.com/agenda/communitydag-invloed-van-ai-op-cultuur-en-media/)
+- [RUW Den Bosh](https://ruwdenbosch.nl/paranoide-over-ai/): Noche de debate
+- [Leidsch Dagblad](https://www.leidschdagblad.nl/cnt/dmf20231228_53324374): Entrevista con Joep Meindertsma
+- [Daniel's Talkshow](https://www.youtube.com/watch?v=mGzwtSqmDsU): Discusión con Joep Meindertsma y Otto Barten
+- [De Dataloog](https://open.spotify.com/episode/2kB59A0bIltpSUdwaf0YM3): Entrevista con Joep Meindertsma
+- [Doorbraak](https://doorbraak.be/pauseai-superslimme-ai-kan-leiden-tot-de-uitsterving-van-de-mensheid/) (2025): Entrevista con Joep Meindertsma
+
+### Alemania {#de}
+
+- [The Decoder](https://the-decoder.de/keine-super-ki-demonstranten-versammeln-sich-vor-dem-openai-buero/)
+- [DW Documentary](https://youtu.be/KspkgAZUkoQ?si=h2Jm0Yvm9RT8t1ZT&t=1116)
+- [HasePost](https://www.hasepost.de/eine-pause-fuer-ki-demonstration-fuer-ki-regulierung-in-osnabrueck-536971/)
+- [Kitogo](https://kitogo.de/pauseai-demonstriert-in-osnabrueck-fuer-strengere-ki-regulierung/)
+- [NOZ](https://www.noz.de/lokales/osnabrueck/artikel/pauseai-gruppe-warnt-in-osnabrueck-vor-kuenstlicher-intelligenz-48025131)
+
+### Estados Unidos {#us}
+
+- [KQED](https://www.kqed.org/news/11985949/as-openai-unveils-big-update-protesters-call-for-pause-in-risky-frontier-tech)
+- [Hoodline](https://hoodline.com/2024/05/ai-advancement-from-openai-unleashes-gpt-4o-amid-global-protests-and-market-frenzy/)
+- [NBC Bay](https://www.nbcbayarea.com/news/tech/ai-protests-worldwide/3536439/)
+- [CalMatters](https://calmatters.org/economy/technology/2024/09/california-ai-safety-regulations-bills/)
+
+### Francia {#fr}
+
+- Le Monde ([2023](https://www.lemonde.fr/en/economy/article/2023/11/27/openai-the-beginnings-of-the-sam-altman-drama_6291282_19.html), [2024](https://www.lemonde.fr/economie/article/2024/09/11/a-l-approche-du-sommet-de-paris-les-militants-inquiets-quant-a-la-securite-de-l-ia-cherchent-a-se-faire-entendre_6312979_3234.html))
+- [La Tribune](https://www.latribune.fr/technos-medias/informatique/a-paris-et-dans-le-monde-les-inquiets-de-l-intelligence-artificielle-appellent-a-une-pause-997475.html)
+- [Apariciones en podcasts de Maxime Fournes](https://www.youtube.com/results?search_query=maxime+fournes+pauseai)
+
+### Australia {#australia}
+
+- [The Age](https://www.theage.com.au/technology/most-dangerous-technology-ever-protesters-urge-ai-pause-20250207-p5laaq.html)
+
+### Dinamarca {#denmark}
+
+- [Weekendavisen](https://www.weekendavisen.dk/samfund/kunstig-intelligens-aegte-frygt)
diff --git a/l10n-cage/md/es/privacy.md b/l10n-cage/md/es/privacy.md
new file mode 100644
index 00000000..f5bae97c
--- /dev/null
+++ b/l10n-cage/md/es/privacy.md
@@ -0,0 +1,74 @@
+---
+title: Política de privacidad de PauseAI
+---
+
+
+
+**Fecha de vigencia:** 17 de julio de 2024
+
+## 1. Introducción {#introduction}
+
+¡Bienvenido a PauseAI!
+Nos comprometemos a proteger tu privacidad y a garantizar que tu información personal se trate de manera segura y responsable.
+Esta Política de privacidad describe cómo [Stichting PauseAI](/legal) ("nosotros", "nos", "nuestro") recopila, utiliza, divulga y protege tu información personal de acuerdo con la legislación de la Unión Europea y los Países Bajos.
+
+## 2. Información que recopilamos {#information-we-collect}
+
+### a. Información personal {#a-personal-information}
+
+- Cuando te [unices](/join) como miembro, recopilamos tu nombre, dirección de correo electrónico y cualquier otra información que proporciones durante el proceso de registro.
+
+### b. Información de uso {#b-usage-information}
+
+- Utilizamos Google Analytics para rastrear y analizar las interacciones de los visitantes con nuestro sitio web. Esto incluye información sobre cómo utilizas nuestro sitio web, las páginas que visitas, el tiempo que pasas en esas páginas y otras estadísticas relacionadas con el uso.
+
+## 3. Cómo utilizamos tu información {#how-we-use-your-information}
+
+Utilizamos la información recopilada para los siguientes fines:
+
+### a. Proporcionar y mejorar nuestros servicios {#a-providing-and-improving-our-services}
+
+- Para gestionar tu membresía y proporcionarte información y actualizaciones relevantes sobre nuestras actividades.
+- Para mejorar nuestro sitio web y servicios basándonos en los datos de uso que recopilamos.
+
+### b. Comunicación {#b-communication}
+
+- Para comunicarnos contigo utilizando Airtable para comunicaciones internas y actualizaciones sobre eventos, actividades y otra información relevante de PauseAI.
+- Si aceptas suscribirte a nuestro boletín, agregamos tu correo electrónico a Substack como suscriptor a [nuestro boletín](https://pauseai.substack.com/).
+
+## 4. Divulgación de tu información {#disclosure-of-your-information}
+
+No vendemos, intercambiamos ni transferimos tu información personal a terceros. Sin embargo, podemos compartir tu información en las siguientes circunstancias:
+
+### a. Proveedores de servicios {#a-service-providers}
+
+Podemos compartir tu información con proveedores de servicios terceros, como Airtable, Substack y Google Analytics, para ayudarnos a operar nuestro sitio web y realizar nuestras actividades.
+
+### b. Requisitos legales {#b-legal-requirements}
+
+Podemos divulgar tu información si es requerido por la ley o en respuesta a solicitudes válidas de autoridades públicas.
+
+### c. Líderes de capítulos {#c-chapter-leaders}
+
+Podemos compartir tu información de contacto con el líder del capítulo nacional de PauseAI de tu país.
+
+## 5. Seguridad de los datos {#data-security}
+
+Implementamos medidas de seguridad adecuadas para proteger tu información personal. Tu información personal se almacena en redes seguras y solo es accesible por un número limitado de personas que tienen derechos de acceso especiales a dichos sistemas y están obligadas a mantener la confidencialidad de la información.
+
+## 6. Tus derechos {#your-rights}
+
+Tienes derecho a acceder, corregir o eliminar tu información personal. Si deseas ejercer estos derechos o tienes alguna pregunta sobre nuestras prácticas de privacidad, por favor contáctanos en [insertar correo electrónico de contacto].
+
+## 7. Cambios a esta Política de privacidad {#changes-to-this-privacy-policy}
+
+Podemos actualizar esta Política de privacidad de vez en cuando. Cualquier cambio se publicará en esta página con una fecha de vigencia actualizada.
+
+## 8. Contáctanos {#contact-us}
+
+Si tienes alguna pregunta o inquietud sobre esta Política de privacidad, por favor contáctanos en:
+
+**Stichting PauseAI**
+[joep@pauseai.info](mailto:joep@pauseai.info)
+
+Al utilizar nuestro sitio web y servicios, aceptas los términos descritos en esta Política de privacidad.
diff --git a/l10n-cage/md/es/proposal.md b/l10n-cage/md/es/proposal.md
new file mode 100644
index 00000000..5add5fff
--- /dev/null
+++ b/l10n-cage/md/es/proposal.md
@@ -0,0 +1,82 @@
+---
+title: Propuesta de PauseAI
+description: Implementar una pausa temporal en el entrenamiento de los sistemas de inteligencia artificial más poderosos.
+---
+
+**Implementar una pausa temporal en el entrenamiento de los sistemas de inteligencia artificial más poderosos**, hasta que sepamos cómo construirlos de manera segura y mantenerlos bajo control democrático.
+
+_Versión: 4 de febrero de 2025_
+
+Los países individuales pueden y deben implementar esta medida _ahora mismo_.
+Especially Estados Unidos (o California, específicamente) debería implementar una pausa, ya que es el hogar de prácticamente todas las empresas líderes en inteligencia artificial.
+Muchos científicos y líderes de la industria [están de acuerdo en que una pausa es necesaria](https://futureoflife.org/open-letter/pause-giant-ai-experiments/), y el público estadounidense también apoya fuertemente una pausa ([64%](https://www.campaignforaisafety.org/usa-ai-x-risk-perception-tracker/) - [69%](https://today.yougov.com/topics/technology/survey-results/daily/2023/04/03/ad825/2)).
+
+Sin embargo, no podemos esperar que los países o empresas arriesguen su ventaja competitiva deteniendo las ejecuciones de entrenamiento de inteligencia artificial durante mucho tiempo si otros países o empresas no hacen lo mismo.
+Por eso necesitamos una **pausa global**.
+
+Vamos a profundizar en lo que se necesita para llegar allí.
+
+## Llegar a un tratado {#getting-to-a-treaty}
+
+Un acuerdo internacional se establece típicamente a través de una cumbre, donde los líderes de los países se reúnen para discutir el tema y tomar una decisión.
+Ya hemos tenido [tres cumbres de seguridad de inteligencia artificial hasta ahora](/summit).
+
+El objetivo principal de estas cumbres debería ser un **tratado**.
+Pero hasta ahora, las cumbres no han sido efectivas para producir algo jurídicamente vinculante.
+Y la construcción de un tratado tiende a ser lenta y propensa a vetos.
+No [tenemos el tiempo](/urgency) para esperar a los procesos tradicionales de elaboración de tratados.
+
+Así que necesitamos un nuevo **proceso de elaboración de tratados**:
+
+- La participación de **Estados Unidos y China** es crucial.
+- Debe ser **inmune a vetos** por parte de cualquier país.
+- Debe ser **rápido**. Los procesos normales de elaboración de tratados tardan años, y no [tenemos ese tiempo](/urgency).
+- La escala de este proceso de elaboración de tratados es sin precedentes, y necesita la aprobación de todos los países.
+
+El tratado en sí debería contener las siguientes **medidas**:
+
+### Medidas del tratado {#treaty-measures}
+
+- **Establecer una agencia internacional de seguridad de inteligencia artificial**, similar a la AIEA. Esta agencia será responsable de:
+ - Otorgar la aprobación para _despliegues_. Esto incluirá la evaluación de modelos / [evaluaciones de modelos](/evaluations).
+ - Otorgar la aprobación para _nuevas ejecuciones de entrenamiento_ de modelos de inteligencia artificial por encima de un cierto tamaño (por ejemplo, 1.000 millones de parámetros).
+ - Reuniones periódicas para discutir el progreso de la investigación en seguridad de inteligencia artificial.
+
+- **Solo permitir el entrenamiento de sistemas de inteligencia artificial generales si su seguridad puede ser garantizada**.
+ - Por modelos de inteligencia artificial generales, nos referimos a modelos que son 1) más grandes que 10^12 parámetros, 2) tienen más de 10^25 FLOPs utilizados para el entrenamiento o 3) capacidades que se espera que superen una puntuación del 86% en la prueba MMLU. Tenga en cuenta que esto no se dirige a los sistemas de inteligencia artificial _estrechos_, como el reconocimiento de imágenes utilizado para diagnosticar el cáncer.
+ - Es posible que el problema de la alineación de la inteligencia artificial _nunca se resuelva_ - puede ser insoluble. En ese caso, nunca deberíamos permitir el entrenamiento de tales sistemas.
+ - **Verificar** que estas ejecuciones de entrenamiento peligrosas no estén teniendo lugar. Esto se puede hacer de [numerosas maneras](https://arxiv.org/abs/2408.16074): [seguimiento de GPUs](https://arxiv.org/abs/2303.11341), incentivando a los denunciantes, monitoreo de energía, inspecciones de centros de datos, inteligencia financiera, inspecciones de instalaciones de fabricación de semiconductores, inspecciones de desarrolladores de inteligencia artificial, seguimiento de ubicación de chips y notificación basada en chips. La [cadena de suministro de chips de inteligencia artificial](https://www.governance.ai/post/computing-power-and-the-governance-of-ai) está muy centralizada, lo que permite la supervisión global.
+ - Requerir [supervisión durante las ejecuciones de entrenamiento](https://www.alignmentforum.org/posts/Zfk6faYvcf5Ht7xDx/compute-thresholds-proposed-rules-to-mitigate-risk-of-a-lab).
+ - Incluso si podemos construir una inteligencia artificial controlable y segura, solo construir y desplegar dicha tecnología con **fuerte control democrático**. Una superinteligencia es demasiado poderosa para ser controlada por una sola empresa o país.
+
+- **Solo permitir el despliegue de modelos después de que no haya [capacidades peligrosas](/dangerous-capabilities)**. (Evaluación previa al despliegue)
+ - Necesitaremos estándares y evaluaciones independientes para determinar si un modelo tiene capacidades peligrosas.
+ - La lista de capacidades peligrosas puede cambiar con el tiempo a medida que crecen las capacidades de la inteligencia artificial.
+ - Tenga en cuenta que confiar plenamente en las evaluaciones de modelos [no es suficiente](/4-levels-of-ai-regulation).
+
+Implementar una pausa _puede_ tener consecuencias negativas si no se hace correctamente.
+Lea más sobre [cómo se pueden mitigar estos riesgos](/mitigating-pause-failures).
+
+Para obtener más detalles sobre cómo se puede utilizar la cadena de suministro de chips de inteligencia artificial para la supervisión global, lea [Construyendo el botón de pausa](/building-the-pause-button).
+
+## Otras medidas que frenan efectivamente {#other-measures-that-effectively-slow-down}
+
+- **Prohibir el entrenamiento de sistemas de inteligencia artificial con material protegido por derechos de autor**. Esto ayuda con los problemas de derechos de autor, reduce la creciente desigualdad y frena el progreso hacia la superinteligencia.
+- **Hacer responsables a los creadores de modelos de inteligencia artificial** de los actos delictivos cometidos utilizando sus sistemas de inteligencia artificial. Esto da a los creadores de modelos más incentivos para asegurarse de que sus modelos sean seguros.
+
+## Política a largo plazo {#long-term-policy}
+
+En el momento de escribir, entrenar un modelo del tamaño de GPT-3 cuesta millones de dólares.
+Esto hace que sea muy difícil entrenar tales modelos, y esto hace que sea más fácil controlar el entrenamiento utilizando el seguimiento de GPUs.
+Sin embargo, el costo de entrenar un modelo está disminuyendo exponencialmente debido a las mejoras en el hardware y los nuevos algoritmos de entrenamiento.
+
+Llegará un momento en que los modelos de inteligencia artificial potencialmente superinteligentes puedan ser entrenados por unos pocos miles de dólares o menos, tal vez incluso en hardware de consumo.
+Necesitamos estar preparados para esto.
+Debemos considerar las siguientes políticas:
+
+- **Limitar la publicación de algoritmos de entrenamiento / mejoras de tiempo de ejecución**. A veces se publica un nuevo algoritmo que hace que el entrenamiento sea mucho más eficiente. La arquitectura Transformer, por ejemplo, permitió prácticamente todo el progreso reciente en inteligencia artificial. Estos tipos de saltos de capacidad pueden ocurrir en cualquier momento, y debemos considerar limitar la publicación de tales algoritmos para minimizar el riesgo de un salto de capacidad repentino. También hay innovaciones que permiten [entrenamientos descentralizados](https://www.primeintellect.ai/blog/opendiloco). De manera similar, algunas innovaciones de tiempo de ejecución podrían cambiar drásticamente lo que se puede hacer con los modelos existentes. Prohibir la publicación de tales algoritmos se puede implementar utilizando medios similares a cómo prohibimos otras formas de información, como los medios pornográficos ilegales.
+- **Limitar los avances de capacidad de los recursos computacionales**. Si entrenar una superinteligencia se vuelve posible en hardware de consumo, estamos en problemas. Debemos considerar limitar los avances de capacidad del hardware (por ejemplo, a través de limitaciones en la litografía, el diseño de chips y los nuevos paradigmas de computación como los chips fotónicos y la computación cuántica).
+
+## Ayúdanos a lograr esto {#help-us-achieve-this}
+
+[Únete](/join) al movimiento para colaborar o [toma acción](/action) por tu cuenta.
diff --git a/l10n-cage/md/es/protesters-code-of-conduct.md b/l10n-cage/md/es/protesters-code-of-conduct.md
new file mode 100644
index 00000000..859713cc
--- /dev/null
+++ b/l10n-cage/md/es/protesters-code-of-conduct.md
@@ -0,0 +1,20 @@
+---
+title: Código de Conducta para Manifestantes de PauseAI
+---
+
+
+
+Como participante en una protesta de PauseAI, me comprometo a adherirme al siguiente Código de Conducta para garantizar un entorno seguro, respetuoso e inclusivo para todos:
+
+1. **No violencia**: Me comprometo a mantener un comportamiento pacífico y no violento durante la protesta. No participaré en ninguna forma de agresión física o verbal, ni instigaré o incitaré a otros a hacerlo. La violencia es la forma más rápida de debilitar nuestro mensaje y poner en riesgo nuestra causa.
+2. **Respeto**: Me comprometo a tratar a todas las personas, incluidos otros manifestantes, fuerzas del orden y transeúntes, con respeto y dignidad. Evitaré utilizar un lenguaje ofensivo o hacer comentarios despectivos, y respetaré el derecho de los demás a expresar sus opiniones, incluso si difieren de las mías.
+3. **Seguridad**: Entiendo la importancia de garantizar la seguridad de todos los participantes y seguiré las directrices y protocolos establecidos para mantener un entorno protegido. Informaré de cualquier riesgo potencial o comportamiento amenazante a los organizadores de la protesta o a las fuerzas del orden de inmediato.
+4. **Inclusión**: Me comprometo a crear un ambiente inclusivo, dando la bienvenida a personas de diversos orígenes y perspectivas. Seré consciente de mis propios sesgos y suposiciones, y me esforzaré por escuchar activamente y aprender de los demás.
+5. **Solidaridad**: Me comprometo a mostrar solidaridad con el movimiento PauseAI y sus objetivos. Evitaré acciones o declaraciones que puedan debilitar el mensaje o la reputación del movimiento, y apoyaré activamente a mis compañeros manifestantes en sus esfuerzos por promover el desarrollo responsable de la inteligencia artificial.
+6. **Cumplimiento de las leyes**: Entiendo que soy responsable de cumplir con todas las leyes locales, regionales y nacionales aplicables durante la protesta. Cooperaré con las fuerzas del orden y seguiré sus instrucciones, siempre que no entren en conflicto con mis derechos o seguridad.
+7. **Responsabilidad**: Reconozco mi responsabilidad personal de defender los valores y objetivos del movimiento PauseAI. Si presencio cualquier violación de este Código de Conducta, lo informaré a los organizadores de la protesta u otras autoridades pertinentes.
+8. **Acción frente al pesimismo**: Me centraré en el diálogo constructivo y en promover soluciones viables para abordar los desafíos que plantea el desarrollo de la inteligencia artificial. Este enfoque generará un ambiente más motivador y esperanzador, animando a otros a unirse a nuestra causa.
+
+Al adherirme a este Código de Conducta, prometo ser un embajador del movimiento PauseAI y su misión de promover el desarrollo y uso responsable de la inteligencia artificial. Juntos, podemos crear una fuerza poderosa y positiva para el cambio.
+
+_Relacionado: nuestros [Valores](/values)_
diff --git a/l10n-cage/md/es/protests.md b/l10n-cage/md/es/protests.md
new file mode 100644
index 00000000..345c094e
--- /dev/null
+++ b/l10n-cage/md/es/protests.md
@@ -0,0 +1,51 @@
+---
+title: Protestas de PauseAI
+description: Una lista de próximas protestas y protestas anteriores.
+---
+
+## Próximas protestas {#upcoming-protest}
+
+**Consulta nuestros [eventos](/events) para conocer las próximas protestas.**
+
+## Protestas anteriores {#past-protests}
+
+### 2025 {#2025}
+
+- [30 de junio, Londres](https://pauseai.info/deepmind-protest-2025)
+- [7-11 de febrero, más de 15 ciudades](/2025-febrero)
+
+### 2024 {#2024}
+
+- [21 de noviembre, más de 10 ciudades](/2024-noviembre)
+- [22 de septiembre, Nueva York](https://www.eventbrite.com/e/pauseai-nyc-summit-of-the-future-protest-tickets-905766862067)
+- [30 de julio, Washington, DC](https://www.facebook.com/events/2528518090675538) (Coalición Mundial por la Pausa)
+- [23 de julio, San Francisco, Londres, París](https://x.com/PauseAI/status/1816550279095238711)
+- [13 de mayo, San Francisco, Londres, Estocolmo, Berlín, La Haya, Roma, París...](/2024-mayo)
+- [12 de febrero, OpenAI, San Francisco](/2024-febrero)
+
+### 2023 {#2023}
+
+- [1 de noviembre, Bletchley Park, Reino Unido](/2023-noviembre-uk)
+- [21 de octubre, Protesta internacional](/2023-oct)
+- [29 de septiembre, San Francisco](https://metaprotest.org/) (no organizado oficialmente por PauseAI)
+- [11 de agosto, Países Bajos](/2023-agosto-nl)
+- [18 de julio, Londres](/2023-julio-londres-18)
+- [13 de julio, Londres](/2023-julio-londres-13)
+- [29 de junio, Londres](/2023-junio-londres-oficina-para-ia)
+- [16 de junio, Melbourne, Australia](/2023-junio-melbourne)
+- [8 de junio, Plaza del Parlamento, Londres](/2023-junio-londres)
+- [3 de junio, Nueva York, Edificio de la ONU](/nyc-un-vigil)
+- [24 de mayo, Londres, UCL](https://twitter.com/GFuterman/status/1660648998863028230?s=20) (no organizado oficialmente por PauseAI)
+- [23 de mayo, Microsoft, Bruselas](/brussels-microsoft-protest)
+- [20 de mayo, OpenAI, San Francisco](/openai-protest)
+- [19-22 de mayo, Google DeepMind, Londres](/2023-mayo-deepmind-londres)
+
+## Organiza una protesta {#organize-a-protest}
+
+¡Toma la iniciativa y organiza una protesta tú mismo!
+Estamos aquí para ayudarte.
+Lee más sobre [cómo organizar una protesta](/organizing-a-protest).
+
+## Código de conducta {#code-of-conduct}
+
+[Lee nuestro código de conducta para manifestantes](/protesters-code-of-conduct)
diff --git a/l10n-cage/md/es/psychology-of-x-risk.md b/l10n-cage/md/es/psychology-of-x-risk.md
new file mode 100644
index 00000000..33a8f3f4
--- /dev/null
+++ b/l10n-cage/md/es/psychology-of-x-risk.md
@@ -0,0 +1,277 @@
+---
+title: La difícil psicología del riesgo existencial
+description: Pensar en el fin del mundo es difícil.
+---
+
+La mayoría de las personas responden inicialmente al tema del riesgo existencial de la inteligencia artificial con una mezcla de burla, negación e incredulidad.
+El miedo a menudo solo aparece después de un largo tiempo de reflexión sobre ello.
+
+La psicología del riesgo existencial es un tema que no se discute a menudo, en comparación con los aspectos técnicos de la seguridad de la IA.
+Sin embargo, se podría argumentar que es quizás igual de importante.
+Después de todo, si no podemos lograr que las personas tomen el tema en serio y actúen al respecto, no podremos hacer nada al respecto.
+
+Es difícil **sacar a colación**, difícil **creer**, difícil **entender** y difícil **actuar**.
+Tener una mejor comprensión de por qué estas cosas son tan difíciles puede ayudarnos a ser más convincentes, efectivos y empáticos.
+
+## Difícil de sacar a colación {#difficult-to-bring-up}
+
+El riesgo existencial es un tema difícil de sacar a colación en una conversación, especialmente si eres un político.
+Las personas pueden pensar que estás loco, y es posible que no te sientas cómodo hablando sobre este tema técnicamente complejo.
+
+### Miedo a ser ridiculizado {#fear-of-being-ridiculed}
+
+La primera reacción al riesgo existencial es a menudo simplemente reírse de ello.
+También hemos visto esto suceder en la Casa Blanca, la primera vez que se mencionó el riesgo existencial.
+Esto, a su vez, hace que sea más difícil sacar a colación el tema de nuevo, ya que otros temerán ser ridiculizados por sacarlo a colación.
+
+Los profesionales pueden temer que su reputación se vea dañada si comparten sus preocupaciones.
+
+> "Era casi peligroso desde una perspectiva profesional admitir que estabas preocupado", - [dijo Jeff Clune](https://www.theglobeandmail.com/business/article-i-hope-im-wrong-why-some-experts-see-doom-in-ai/)
+
+Presionar para que se tomen medidas políticas sensatas (como pausar) puede considerarse "extremista" o "alarmista", lo que puede disminuir tu credibilidad o reputación.
+
+### Miedo a ser llamado racista/cultista/teórico de la conspiración {#fear-of-being-called-racistcultistconspiracy-theorist}
+
+En los últimos meses, han surgido varias teorías de la conspiración.
+Algunos individuos han afirmado que [todas las personas que se preocupan por la seguridad de la IA son racistas](https://medium.com/%2540emilymenonbender/talking-about-a-schism-is-ahistorical-3c454a77220f) y que [la seguridad de la IA es una secta](https://www.cnbc.com/2023/06/06/ai-doomers-are-a-cult-heres-the-real-threat-says-marc-andreessen.html).
+Algunos han afirmado que los "fatalistas de la IA" son parte de una [conspiración de las grandes empresas de tecnología para "exagerar" la IA](https://www.latimes.com/business/technology/story/2023-03-31/column-afraid-of-ai-the-startups-selling-it-want-you-to-be).
+Estas acusaciones ridículas pueden hacer que las personas preocupadas duden en compartir sus preocupaciones.
+
+Sin embargo, antes de enfadarse con las personas que hacen estas acusaciones, tenga en cuenta que pueden ser el resultado del miedo y la negación (ver más abajo).
+Reconocer los peligros de la IA es aterrador, y puede ser más fácil desestimar al mensajero que internalizar el mensaje.
+
+### Un tema complejo para discutir {#a-complex-topic-to-argue-about}
+
+A las personas les gusta hablar sobre cosas que conocen.
+La dificultad técnica de la seguridad de la IA hace que sea un tema abrumador para la mayoría de las personas.
+Se necesita tiempo y esfuerzo para entender los argumentos.
+Como político, no quieres ser atrapado diciendo algo que esté mal, así que podrías simplemente evitar el tema por completo.
+
+## Difícil de creer {#difficult-to-believe}
+
+Incluso si hay una discusión sobre el riesgo existencial, es difícil convencer a las personas de que es un problema real.
+Hay varias razones por las que la mayoría de las personas descartarán instantáneamente la idea.
+
+### Sesgo de normalidad {#normalcy-bias}
+
+Todos conocemos las imágenes de desastres en las películas, ¿verdad? Personas gritando y corriendo en pánico.
+Resulta que lo contrario es a menudo cierto: alrededor del 80% de las personas muestran síntomas de [_sesgo de normalidad_](https://es.wikipedia.org/wiki/Sesgo_de_normalidad) durante los desastres: no buscar refugio durante un tornado, ignorar las advertencias del gobierno, seguir estrechando manos en los primeros días de la COVID.
+El sesgo de normalidad describe nuestra tendencia a subestimar la posibilidad de un desastre y creer que la vida continuará como siempre, incluso frente a amenazas o crisis significativas.
+Esto está [sucediendo actualmente con la IA](https://lethalintelligence.ai/post/category/warning-signs/).
+
+> Las personas se quedan quietas, pidiendo opiniones, porque _quieren_ que les digan que todo está bien. Seguirán preguntando y retrasando hasta que obtengan la respuesta que quieren.
+
+> Durante el 11 de septiembre, por ejemplo, el tiempo de espera promedio entre los supervivientes para evacuar las torres fue de 6 minutos, con algunos esperando hasta media hora para salir. Alrededor de 1000 personas incluso se tomaron el tiempo para apagar sus computadoras y completar otras actividades de oficina, una estrategia para seguir participando en actividades normales durante una situación desconocida.
+
+_De ["La calma congelada del sesgo de normalidad"](https://gizmodo.com/the-frozen-calm-of-normality-bias-486764924)_
+
+Otro ejemplo de esto es el desastre del transbordador espacial Challenger en 1986.
+Roger Boisjoly era un ingeniero que predijo que explotaría, pero ninguno de sus gerentes quería creer que era posible:
+
+> Todos sabíamos que si los sellos fallaban, el transbordador explotaría.
+> Luché como un demonio para detener ese lanzamiento. Estoy tan destrozado por dentro que apenas puedo hablar de ello, incluso ahora.
+> Estábamos hablando con las personas adecuadas, estábamos hablando con las personas que tenían el poder de detener ese lanzamiento.
+
+_De ["Recordando a Roger Boisjoly"](https://www.npr.org/sections/thetwo-way/2012/02/06/146490064/remembering-roger-boisjoly-he-tried-to-stop-shuttle-challenger-launch)_
+
+Una explicación de por qué nuestro cerebro se niega a creer que el peligro podría estar sobre nosotros es la disonancia cognitiva.
+
+### Disonancia cognitiva {#cognitive-dissonance}
+
+Cuando se enfrenta a nueva información, el cerebro intentará hacer que se ajuste a lo que ya sabe.
+Las ideas que ya coinciden con las creencias existentes se agregan fácilmente a nuestro modelo del mundo.
+Las ideas que son demasiado diferentes de lo que ya creemos causarán _disonancia cognitiva_ - nos sentiremos incómodos y trataremos de rechazar las ideas o encontrar explicaciones alternativas para lo que escuchamos.
+
+Muchas creencias que la mayoría de las personas tienen serán desafiadas por la idea del riesgo existencial:
+
+- La tecnología está allí para servirnos y puede ser controlada fácilmente
+- Hay personas inteligentes a cargo que se asegurarán de que todo esté bien
+- Probablemente envejeceré, y también mis hijos
+
+Muchos de estos pensamientos serán desafiados por la idea de que la IA plantea un riesgo existencial.
+Nuestros cerebros buscarán explicaciones alternativas para por qué escuchamos que los científicos están [advertiendo sobre esto](/quotes):
+
+- Están pagados por las grandes empresas de tecnología
+- Son parte de alguna conspiración o secta
+- Solo quieren atención o poder
+
+Internalizar que _los científicos están advirtiendo porque creen que estamos en peligro_ entra en conflicto con nuestras creencias existentes, causa demasiada disonancia cognitiva.
+
+### El fin del mundo nunca ha sucedido {#the-end-of-the-world-has-never-happened}
+
+Ver es creer (ver: [_Heurística de disponibilidad_](https://es.wikipedia.org/wiki/Heur%C3%ADstica_de_disponibilidad)).
+Ese es un problema para el riesgo de extinción porque nunca podremos verlo antes de que sea demasiado tarde.
+
+Por otro lado, tenemos toneladas de evidencia en contrario.
+El fin de los tiempos ha sido predicho por muchas personas, y cada una de ellas ha estado equivocada hasta ahora.
+
+Así que cuando las personas escuchan sobre el riesgo existencial, pensarán que es solo otra de esas predicciones de cultos apocalípticos.
+Trata de entender este punto de vista, y no seas demasiado duro con las personas que piensan de esta manera.
+Probablemente no han visto la misma información que tú.
+
+### Nos gusta pensar que somos especiales {#we-like-to-think-that-we-are-special}
+
+Tanto a nivel colectivo como individual, queremos creer que somos especiales.
+
+A nivel colectivo, nos gusta pensar en los humanos como algo muy diferente de los animales - la idea de Darwin de que evolucionamos a partir de los monos era casi impensable para la mayoría.
+La mayoría de las religiones tienen historias sobre el cielo o la reencarnación, donde los humanos (o al menos los creyentes) vivirán para siempre de alguna manera.
+La idea de que un día la humanidad puede dejar de existir es muy desconcertante y difícil de internalizar.
+Nos gusta creer que tenemos _armadura de trama_ - que somos los personajes principales en una historia, y que la historia tendrá un final feliz.
+Las personas pueden considerarlo racionalmente, pero no lo _sentirán_.
+Un video de Robert Miles titulado ["No hay regla que diga que lo lograremos"](https://www.youtube.com/watch?v=JD_iA7imAPs) explica esto muy bien.
+
+A nivel individual, nos enorgullecemos de las habilidades intelectuales únicas que tenemos.
+Muchos nunca quisieron creer que un día una IA podría crear arte, escribir libros o incluso vencer a los humanos en ajedrez.
+El pensamiento de que nuestra propia inteligencia es solo un producto de la evolución y que puede ser replicada por una máquina es algo que muchas personas encuentran difícil de aceptar.
+Esto hace que sea difícil aceptar que una IA podría ser más inteligente que nosotros.
+
+### La ficción nos ha condicionado a esperar un final feliz {#fiction-has-conditioned-us-to-expect-a-happy-ending}
+
+La mayoría de lo que sabemos sobre el riesgo existencial proviene de la ficción.
+Esto probablemente no ayuda, porque las historias ficticias no están escritas para ser realistas: están escritas para ser entretenidas.
+
+En la ficción, a menudo hay un héroe, conflicto, esperanza y finalmente un final feliz.
+Estamos condicionados a esperar una lucha en la que podemos luchar y ganar.
+En la ciencia ficción, las IA a menudo se retratan de manera muy antropomórfica - como malvadas, como queriendo ser humanas, como cambiando sus objetivos.
+Nada de esto coincide con lo que los expertos en seguridad de la IA están preocupados.
+
+Y en la mayoría de las historias, el héroe gana.
+La IA comete algún error tonto y el héroe encuentra una forma de superar a la cosa que se supone que es mucho más inteligente.
+El héroe está protegido por armadura de trama.
+En escenarios de fatalidad de la IA más realistas, no hay héroe, no hay armadura de trama, no hay lucha, no hay humanos que superen a una superinteligencia, y no hay final feliz.
+
+### El progreso siempre ha sido (en su mayoría) bueno {#progress-has-always-been-mostly-good}
+
+Muchas de las tecnologías introducidas en nuestra sociedad han sido en su mayoría beneficiosas para la humanidad.
+Hemos curado enfermedades, aumentado nuestra esperanza de vida y hemos hecho que nuestras vidas sean más cómodas.
+Y cada vez que lo hemos hecho, ha habido personas que se han opuesto a estas innovaciones y han advertido sobre los peligros.
+Los luditas destruyeron las máquinas que les quitaban el trabajo, y las personas temían a los primeros trenes y automóviles.
+Estas personas siempre han estado equivocadas.
+
+### No nos gusta pensar en nuestra muerte {#we-dont-like-to-think-about-our-death}
+
+La mente humana no le gusta recibir malas noticias, y tiene varios mecanismos de afrontamiento para lidiar con ellas.
+Los más importantes cuando se habla de riesgo existencial son la [negación](https://es.wikipedia.org/wiki/Disonancia_cognitiva) y la [compartmentalización]().
+Cuando se trata de nuestra propia muerte, específicamente, somos muy propensos a la negación.
+Se han escrito libros sobre la [Negación de la muerte](https://es.wikipedia.org/wiki/La_negaci%C3%B3n_de_la_muerte).
+
+Estos mecanismos de afrontamiento nos protegen del dolor de tener que aceptar que el mundo no es como pensábamos que era.
+Sin embargo, también pueden impedir que respondamos adecuadamente a una amenaza.
+
+Cuando notes que alguien está utilizando estos mecanismos de afrontamiento, trata de ser empático.
+No lo están haciendo a propósito, y no son estúpidos.
+Es una reacción natural a las malas noticias, y todos lo hacemos en cierta medida.
+
+### Admitir que tu trabajo es peligroso es difícil {#admitting-your-work-is-dangerous-is-hard}
+
+Para aquellos que han estado trabajando en capacidades de IA, aceptar sus peligros es aún más difícil.
+
+Toma a Yoshua Bengio, por ejemplo.
+Yoshua Bengio tiene una mente brillante y es uno de los pioneros en IA.
+Los expertos en seguridad de la IA han estado advirtiendo sobre los peligros potenciales de la IA durante años, pero todavía le tomó mucho tiempo tomar sus advertencias en serio.
+En una [entrevista](https://youtu.be/0RknkWgd6Ck?t%25253D949), dio la siguiente explicación:
+
+> "¿Por qué no pensé en ello antes? ¿Por qué Geoffrey Hinton no pensó en ello antes? [...] Creo que hay un efecto psicológico que todavía puede estar en juego para muchas personas. [...] Es muy difícil, en términos de tu ego y sentirte bien con lo que haces, aceptar la idea de que la cosa en la que has estado trabajando durante décadas podría ser en realidad muy peligrosa para la humanidad. [...] Creo que no quería pensar demasiado en ello, y probablemente sea el caso para otros."
+
+No debería sorprender a nadie que algunos de los más feroces negadores del riesgo de la IA sean investigadores de la IA ellos mismos.
+
+### Fácil de descartar como conspiración o secta {#easy-to-dismiss-as-conspiracy-or-cult}
+
+En el último año, la mayoría de la población se enteró del concepto de riesgo existencial de la IA.
+Cuando escuchan sobre esto, las personas buscarán una explicación.
+La explicación correcta es que la IA es en realidad peligrosa, pero creer esto es difícil y aterrador: llevará a mucha fricción cognitiva.
+Así que las personas casi directamente buscarán una forma diferente de explicar sus observaciones.
+Hay dos explicaciones alternativas que son mucho más fáciles de creer:
+
+1. **Es una gran conspiración**. Las empresas de IA están exagerando la IA para obtener más financiamiento, y las personas que se preocupan por la seguridad de la IA son solo parte de esta máquina de exageración. Esta narrativa coincide con varias observaciones: las empresas a menudo mienten, muchos expertos en seguridad de la IA están empleados por empresas de IA, y hay un grupo de multimillonarios que están financiando la investigación sobre seguridad de la IA. Sin embargo, también podemos señalar por qué esta historia de conspiración simplemente no es cierta. Muchos de los "alarmistas" son científicos que no tienen nada que ganar. Las empresas pueden beneficiarse de alguna manera, pero hasta hace muy poco (mayo de 2023), han estado casi completamente en silencio sobre los riesgos de la IA. Esto tiene sentido, ya que las empresas en su mayoría no se benefician de que las personas teman a su producto o servicio. Hemos estado protestando fuera de Microsoft y OpenAI en parte _porque_ queríamos que reconocieran los riesgos.
+2. **Es una secta**. El grupo que cree en la seguridad de la IA es solo un grupo de extremistas religiosos locos que creen en el fin del mundo. Esto parece encajar, también, ya que las personas en la comunidad de seguridad de la IA a menudo son muy apasionadas sobre el tema y utilizan todo tipo de jerga de grupo. Sin embargo, se desmorona cuando se señala que las personas que advierten sobre los riesgos de la IA no son una sola organización. Es un grupo grande y diverso de personas, no hay un solo líder, no hay rituales y no hay dogma.
+
+Lo que hace que estas explicaciones sean tan convincentes no es solo que sean fáciles de comprender, o que expliquen todas las observaciones a la perfección, sino que son reconfortantes.
+Creer que las personas advierten sobre la IA _porque hay una amenaza real_ es aterrador y difícil de aceptar.
+
+## Difícil de entender {#difficult-to-understand}
+
+Los argumentos a favor del riesgo existencial de la IA son a menudo muy técnicos, y somos muy propensos a antropomorfizar los sistemas de IA.
+
+### La alineación de la IA es sorprendentemente difícil {#ai-alignment-is-surprisingly-hard}
+
+Las personas pueden sentir intuitivamente que podrían resolver el problema de la alineación de la IA.
+¿Por qué no agregar un [botón de parada](https://www.youtube.com/watch?v=3TYT1QfdfsM&list=PLfHsskCxi_g-c62a_dmsNuHynaXsRQm40&index=10)? ¿Por qué no [criar a la IA como a un niño](https://www.youtube.com/watch?v=eaYIU6YXr3w)? ¿Por qué no [las tres leyes de Asimov](https://www.youtube.com/watch?v=7PKx3kS7f4A)?
+Contrariamente a la mayoría de los tipos de problemas técnicos, las personas tendrán una opinión sobre cómo resolver la alineación de la IA y subestimarán la dificultad del problema.
+Comprender la dificultad real de ello lleva mucho tiempo y esfuerzo.
+
+### Antropomorfizamos {#we-anthropomorphize}
+
+Vemos caras en las nubes y vemos cualidades humanas en los sistemas de IA.
+Millones de años de evolución nos han convertido en criaturas altamente sociales, pero estos instintos no siempre son útiles.
+Tendemos a pensar en las IA como si tuvieran metas y motivaciones similares a las humanas, pudieran sentir emociones y tuvieran un sentido de la moral.
+Tendemos a esperar que una IA muy inteligente también sea muy sabia y amable.
+Esta es una de las razones por las que las personas intuitivamente piensan que la alineación de la IA es fácil, y por qué la [tesis de ortogonalidad](https://www.youtube.com/watch?v=hEUO6pjwFOo) puede ser tan contraintuitiva.
+
+### La seguridad de la IA utiliza un lenguaje complejo {#ai-safety-uses-complex-language}
+
+El campo de la seguridad de la IA consiste principalmente en un pequeño grupo de personas (inteligentes) que han desarrollado su propio jerga.
+Leer publicaciones en LessWrong puede sentirse como leer un idioma extranjero.
+Muchas publicaciones asumen que el lector ya está familiarizado con conceptos matemáticos, varios conceptos técnicos y el jerga del campo.
+
+## Difícil de actuar {#difficult-to-act-on}
+
+Incluso si las personas entienden los argumentos, sigue siendo difícil actuar en base a ellos.
+El impacto es demasiado grande, tenemos mecanismos de afrontamiento que minimizan los riesgos, y si sentimos la gravedad de la situación, podemos sentirnos impotentes.
+
+### Falta de respuesta de miedo innata {#lack-of-innate-fear-response}
+
+Nuestros cerebros han evolucionado para temer cosas que son peligrosas.
+Instintivamente tememos las alturas, los animales grandes con dientes afilados, los ruidos fuertes y repentinos, y las cosas que se mueven en forma de S.
+Una IA superinteligente no desencadena ninguno de nuestros miedos primarios.
+Además, tenemos un fuerte miedo al rechazo social o a perder estatus social, lo que significa que las personas tienden a tener miedo de hablar sobre los riesgos de la IA.
+
+### Insensibilidad al alcance {#scope-insensitivity}
+
+> "Una sola muerte es una tragedia; un millón de muertes es una estadística". - Joseph Stalin
+
+La insensibilidad al alcance es la tendencia humana a subestimar el impacto de los grandes números.
+No nos importa 10 veces más que mueran 1000 personas que 100 personas.
+El riesgo existencial significa la muerte de los 8000 millones de personas en la Tierra (sin contar a sus descendientes).
+
+Incluso si hay un 1% de probabilidad de que esto suceda, sigue siendo un gran problema.
+Racionalmente, deberíamos considerar este 1% de probabilidad de 8000 millones de muertes tan importante como la muerte segura de 80 millones de personas.
+
+Si alguien siente que el fin del mundo no es gran cosa (te sorprenderías de cómo sucede esto a menudo), puedes intentar hacer las cosas más personales.
+La humanidad no es solo un concepto abstracto, son tus amigos, tu familia y tú mismo.
+Todas las personas que te importan morirán.
+
+### Nuestro comportamiento está moldeado por nuestro entorno y mentes primitivas {#our-behavior-is-shaped-by-our-environment-and-primitive-minds}
+
+Nuestras acciones están condicionadas por lo que se considera normal, bueno y razonable.
+No importa cuánto queramos actuar en una situación que lo requiera, si esas acciones son poco comunes, gran parte del tiempo tememos consciente o inconscientemente ser excluidos por la sociedad por hacerlas. Y lo que es normal se nos impone en nuestras mentes al estar rodeados de ello en nuestros círculos sociales cercanos y en nuestras redes en línea.
+Las personas que hacen y hablan de cosas no relacionadas con lo que realmente nos importa anularán lo que está en nuestras mentes y nos motivarán a hacer otras cosas a diario.
+
+Los riesgos de extinción merecen **mucho** más de nuestro tiempo, energía y atención. Nuestras reacciones ante ellos deberían ser más parecidas a situaciones de vida o muerte que nos llenan de adrenalina. Pero, debido a la naturaleza abstracta de los problemas y nuestras mentes desadaptadas, la mayoría de las personas que se enteran de ellos simplemente terminan continuando con sus días como si no hubieran aprendido nada.
+
+### Mecanismos de afrontamiento (impidiendo la acción) {#coping-mechanisms-preventing-action}
+
+Los mismos mecanismos de afrontamiento que impiden que las personas _crean_ en el riesgo existencial también les impiden _actuar_ al respecto.
+Si estás en negación o compartimentando, no sentirás la necesidad de hacer nada al respecto.
+
+### Estrés y ansiedad {#stress-and-anxiety}
+
+Mientras escribo esto, me siento estresado y ansioso.
+No es solo porque temo el fin del mundo, sino también porque siento que tengo que hacer algo al respecto.
+Hay mucha presión para actuar, y puede ser abrumadora.
+Este estrés puede ser un buen motivador, pero también puede ser paralizante.
+
+### Desesperanza e impotencia {#hopelessness-and-powerlessness}
+
+Cuando las personas toman el tema en serio y la gravedad completa de la situación se hunde, pueden sentir que toda esperanza está perdida.
+Puede sentirse como un diagnóstico de cáncer: vas a morir antes de lo que querías y no hay nada que puedas hacer al respecto.
+El problema es demasiado grande para abordarlo y tú eres demasiado pequeño.
+La mayoría de las personas no son expertos en seguridad de la IA o cabilderos experimentados, así que ¿cómo pueden hacer algo al respecto?
+
+## ¡Pero puedes ayudar! {#but-you-can-help}
+
+Hay muchas [cosas que puedes hacer](/action).
+Escribir una carta, ir a una protesta, donar algo de dinero o unirse a una comunidad no es tan difícil.
+Y estas acciones tienen un impacto real.
+Incluso cuando enfrentamos el fin del mundo, aún puede haber esperanza y un trabajo muy gratificante por hacer.
+[Únete a PauseAI](/join) y forma parte de nuestro movimiento.
diff --git a/l10n-cage/md/es/risks.md b/l10n-cage/md/es/risks.md
new file mode 100644
index 00000000..cf71dcce
--- /dev/null
+++ b/l10n-cage/md/es/risks.md
@@ -0,0 +1,210 @@
+---
+title: Riesgos de la inteligencia artificial
+description: La IA amenaza nuestra democracia, nuestra tecnología y nuestra especie.
+---
+
+La inteligencia artificial (IA) es una tecnología poderosa que está transformando cada vez más nuestro mundo.
+Conlleva un potencial asombroso, pero también una gran cantidad de riesgos graves.
+Este es un intento de incluir todo lo que podría mitigarse con una pausa.
+
+## Peligros actuales {#present-dangers}
+
+### Noticias falsas, polarización y amenaza a la democracia {#fake-news-polarization-and-threatening-democracy}
+
+Gran parte de nuestra sociedad se basa en la confianza. Confiamos en que el dinero en nuestra cuenta bancaria es real, que las noticias que leemos son ciertas y que las personas que publican reseñas en línea existen.
+
+Los sistemas de IA son excepcionalmente buenos para crear medios falsos, también llamados deepfakes.
+Pueden crear videos falsos, audio falso, texto falso e imágenes falsas.
+Crear medios falsos no es nuevo, pero la IA lo hace mucho más barato y realista.
+Estas capacidades están mejorando rápidamente.
+
+Hace solo dos años, nos reíamos de las imágenes de Dall-E horriblemente poco realistas, pero ahora tenemos [imágenes deepfake que ganan concursos de fotografía](https://www.theguardian.com/technology/2023/apr/17/photographer-admits-prize-winning-image-was-ai-generated).
+Una imagen generada por IA de una explosión causó [ventas de pánico en Wall Street](https://www.euronews.com/next/2023/05/23/fake-news-about-an-explosion-at-the-pentagon-spreads-on-verified-accounts-on-twitter).
+Un clip de audio de 10 segundos o una sola imagen pueden ser suficientes para crear un deepfake convincente.
+Quizás incluso más peligroso que los deepfakes en sí mismos es cómo la existencia de deepfakes convincentes destruye la confianza.
+[Una imagen real puede ser llamada generada por IA](https://www.axios.com/2024/08/13/trump-crowd-photo-ai-deepfake-truth), y la gente lo creerá.
+
+GPT-4 puede escribir de una manera indistinguible de los humanos, pero a un ritmo mucho más rápido y a una fracción del costo.
+Podríamos ver pronto que las redes sociales se inunden con discusiones y opiniones falsas, y artículos de noticias falsos que son indistinguibles de los reales.
+También llamado "internet muerto".
+
+Esto conduce a la polarización entre varios grupos de personas que creen en diferentes fuentes de información y narrativas y, al consumir representaciones distorsionadas de lo que está sucediendo, escalan sus diferencias hasta culminar en respuestas violentas y antidemocráticas.
+
+Una pausa en los modelos fronterizos (nuestra [propuesta](/proposal)) no detendría los modelos que se utilizan actualmente para crear medios falsos, pero podría ayudar a prevenir modelos de vanguardia futuros.
+Además, sentaría las bases para una regulación futura destinada a mitigar los medios falsos y cualquier otro problema específico causado por la IA. Sin mencionar el aumento de la atención y la conciencia pública sobre estos peligros y la prueba de que pueden abordarse.
+
+### Acoso y estafas impulsados por deepfakes {#deepfakes-powered-harrasment-and-scams}
+
+Los deepfakes no solo pueden robar las identidades de personas famosas y [crear desinformación](https://time.com/6565446/biden-deepfake-audio/), sino que también pueden suplantar tu identidad.
+Cualquiera con fotos, videos o audio de alguien (y suficiente conocimiento) puede crear deepfakes de ellos y usarlos para cometer fraude, acosarlos o crear material sexual no consensuado.
+Alrededor del [96% de todo el contenido de deepfake es material sexual](https://www.technologyreview.com/2019/10/07/132735/deepfake-porn-deeptrace-legislation-california-election-disinformation/).
+
+Puedes encontrar una recopilación de incidentes de IA, que son principalmente noticias, estafas y acoso de deepfake [aquí](https://incidentdatabase.ai/summaries/incidents/).
+
+Como se menciona en la sección sobre noticias falsas, los medios falsos no se evitarían del todo con nuestra propuesta, pero podrían reducirse en cierta medida.
+Una medida no tan pequeña cuando se tiene en cuenta que los sistemas de IA multipropósito como los chatbots se han vuelto muy populares, y estaríamos deteniendo que sean más capaces y populares, lo que podría incluir sistemas diseñados con menos filtros y entrenables con nuevas caras.
+
+### Sesgos y discriminación {#biases-and-discrimination}
+
+Los sistemas de IA se entrenan con datos, y gran parte de los datos que tenemos están de alguna manera sesgados.
+Esto significa que los sistemas de IA heredarán los sesgos de nuestra sociedad.
+Un sistema de reclutamiento automatizado en Amazon [heredó un sesgo contra las mujeres](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G).
+Los pacientes negros tenían [menos probabilidades de ser derivados a un especialista médico](https://www.science.org/doi/full/10.1126/science.aax2342).
+Los sistemas sesgados utilizados en la aplicación de la ley, como los algoritmos de policía predictiva, podrían llevar a un objetivo injusto de grupos específicos.
+Los modelos de IA generativos no solo copian los sesgos de sus datos de entrenamiento, [los amplifican](https://www.bloomberg.com/graphics/2023-generative-ai-bias/).
+Estos sesgos a menudo aparecen sin que los creadores del sistema de IA sean conscientes de ellos.
+
+### Pérdida de empleo, desigualdad económica e inestabilidad {#job-loss-economic-inequality-and-instability}
+
+Durante la revolución industrial, muchas personas perdieron sus empleos debido a las máquinas.
+Sin embargo, se crearon nuevos empleos (a menudo mejores) y la economía creció.
+Esta vez, las cosas podrían ser diferentes.
+
+La IA no solo reemplaza nuestros músculos como lo hizo la máquina de vapor, reemplaza nuestros cerebros.
+Los humanos normales pueden no tener nada que ofrecer a la economía.
+Los modelos de generación de imágenes (que se entrenan intensivamente con material con derechos de autor de artistas profesionales) ya están [impactando la industria creativa](https://cointelegraph.com/news/artists-face-a-choice-with-ai-adapt-or-become-obsolete).
+Los escritores están [en huelga](https://www.newscientist.com/article/2373382-why-use-of-ai-is-a-major-sticking-point-in-the-ongoing-writers-strike/).
+GPT-4 ha [aprobado el examen de abogacía](https://law.stanford.edu/2023/04/19/gpt-4-passes-the-bar-exam-what-that-means-for-artificial-intelligence-tools-in-the-legal-industry/), puede escribir contenido escrito excelente y puede escribir código (nuevamente, parcialmente entrenado con [materiales con derechos de autor](https://www.ischool.berkeley.edu/news/2023/new-research-prof-david-bamman-reveals-chatgpt-seems-be-trained-copyrighted-books)).
+
+
+
+Las personas que poseen estos sistemas de IA podrán capitalizarlos, pero las personas que pierdan sus empleos debido a ellos no podrán.
+Es difícil predecir qué empleos serán los primeros en ser reemplazados.
+Podrían dejarte desempleado y sin ingresos, sin importar cuánto tiempo, dinero y energía hayas invertido en obtener la experiencia y el conocimiento que tienes, y cuán valiosos eran hace un momento.
+La forma en que distribuimos la riqueza en nuestra sociedad no está preparada para esto.
+
+Las medidas políticas como la Renta Básica Universal podrían prevenir lo peor de las consecuencias económicas, pero no está claro si se implementarán a tiempo.
+Una vez que nuestros empleos sean reemplazados, podríamos quedarnos sin poder de negociación para pedir redes de seguridad social.
+
+Y aunque logremos navegar adecuadamente los problemas que rodean la desigualdad y la inestabilidad, podríamos terminar en un mundo donde nuestro sentido de propósito se pierde.
+Muchos artistas ya están sintiendo esto, al ver su trabajo siendo reemplazado por IA.
+Pronto, podríamos ser todos los que nos sintamos de esta manera.
+
+### Salud mental, adicción y desconexión entre las personas {#mental-health-addiction-and-disconnection-between-people}
+
+Las empresas de redes sociales han estado utilizando sistemas de IA para maximizar sus ganancias mientras aprovechan nuestras mentes primarias durante algún tiempo, dañando nuestra salud mental en el proceso.
+Los chatbots de IA que ofrecen a los usuarios una relación romántica han visto un crecimiento enorme en el último año, con más de 3 mil millones de resultados de búsqueda para "novia de IA" en Google.
+Estas aplicaciones de relación de IA son [demostradas como adictivas](https://onlinelibrary.wiley.com/doi/10.1002/mar.21899), especialmente para "personas solitarias y vulnerables".
+
+Las empresas que controlan estas aplicaciones están incentivadas para hacerlas lo más adictivas posible, y tienen una cantidad tremenda de poder al dar forma al comportamiento y las opiniones de estos modelos.
+
+Una pausa en los modelos más grandes podría prevenir que se conviertan en chatbots multipropósito que se ajusten a nuestras necesidades perfectamente sin que las personas entiendan las consecuencias a largo plazo de ellos.
+
+### Investigación automatizada (pérdida de privacidad) {#automated-investigation-loss-of-privacy}
+
+Dejamos muchos rastros en la web.
+Conectar los puntos es difícil y requiere mucho tiempo, pero la IA ahora puede hacer que esto sea mucho más barato.
+Los grandes modelos de lenguaje ahora pueden buscar autónomamente en la web y son lo suficientemente buenos como para analizar grandes cantidades de datos y encontrar detalles interesantes.
+Esto se puede utilizar para encontrar información que de otra manera sería muy costosa de encontrar.
+
+- Encontrar información sobre dónde es probable que una persona esté en un momento determinado. Esto se puede utilizar para rastrear a disidentes o planificar asesinatos.
+- Vincular cuentas anónimas en la web con identidades de la vida real. Esto se puede utilizar para descubrir quién está filtrando información.
+
+En septiembre de 2024, un grupo de estudiantes [creó una aplicación](https://x.com/AnhPhuNguyen1/status/1840786336992682409) que muestra información sobre extraños, como nombres, parientes y otros datos personales en realidad aumentada utilizando reconocimiento facial y LLM.
+
+### Riesgos ambientales {#environmental-risks}
+
+Los daños ambientales están comenzando a ser significativos, y las mayores empresas de IA planean aumentar enormemente su consumo de energía. Puedes leer sobre cómo la IA afectará negativamente el medio ambiente [aquí](/environmental).
+
+### Armas autónomas {#autonomous-weapons}
+
+Las empresas ya están vendiendo armas impulsadas por IA a los gobiernos.
+Lanius construye [drones suicidas voladores](https://www.youtube.com/watch?v=G7yIzY1BxuI) que identifican autónomamente a los enemigos.
+El sistema AIP de Palantir [utiliza grandes modelos de lenguaje](https://www.youtube.com/watch?v=XEM5qz__HOU) para analizar datos de campo de batalla y elaborar estrategias óptimas.
+
+Las naciones y las empresas de armas han realizado que la IA tendrá un gran impacto en superar a sus enemigos.
+Hemos entrado en una nueva carrera armamentista.
+Esta dinámica recompensa acelerar y cortar esquinas.
+
+Ahora mismo, todavía tenemos humanos en el bucle para estas armas.
+Pero a medida que mejoran las capacidades de estos sistemas de IA, habrá más y más presión para darles a las máquinas el poder de decidir.
+Cuando delegamos el control de las armas a la IA, los errores y los errores podrían tener consecuencias horribles.
+La velocidad a la que la IA puede procesar información y tomar decisiones puede hacer que los conflictos se intensifiquen en minutos.
+Un [artículo reciente](https://arxiv.org/pdf/2401.03408.pdf) concluye que "los modelos tienden a desarrollar dinámicas de carrera armamentista, lo que lleva a un mayor conflicto, y en casos raros, incluso al despliegue de armas nucleares".
+
+Lee más en [stopkillerrobots.org](https://www.stopkillerrobots.org/military-and-killer-robots/)
+
+## Peligros del futuro cercano {#near-future-dangers}
+
+### Acumulación de poder y tiranía {#power-accumulation-and-tyranny}
+
+Los modelos de IA poderosos se pueden utilizar para obtener más poder.
+Este bucle de retroalimentación positiva puede llevar a que unas pocas empresas o gobiernos tengan una cantidad poco saludable de poder.
+Tener control sobre miles de sistemas inteligentes y autónomos podría utilizarse para influir en opiniones, manipular mercados o incluso librar guerras.
+En manos de un gobierno autoritario, esto podría utilizarse para suprimir la disidencia y mantener el poder.
+
+### Armas biológicas {#biological-weapons}
+
+La IA puede hacer que el conocimiento sea más accesible, lo que también incluye el conocimiento sobre cómo crear armas biológicas. [Este artículo](https://arxiv.org/abs/2306.03809) muestra cómo GPT-4 puede ayudar a estudiantes no científicos a crear un patógeno pandémico:
+
+> En una hora, los chatbots sugirieron cuatro patógenos pandémicos potenciales, explicaron cómo se pueden generar a partir de ADN sintético utilizando genética inversa, suministraron los nombres de empresas de síntesis de ADN que no revisan los pedidos, identificaron protocolos detallados y cómo solucionar problemas, y recomendaron que cualquier persona que carezca de las habilidades para realizar genética inversa contrate a una instalación central o una organización de investigación por contrato.
+
+Este tipo de conocimiento nunca ha sido tan accesible, y no tenemos las salvaguardias en su lugar para lidiar con las posibles consecuencias.
+
+Además, algunos modelos de IA se pueden utilizar para diseñar patógenos peligrosos completamente nuevos.
+Un modelo llamado MegaSyn diseñó [40.000 nuevas armas químicas/moléculas tóxicas en una hora](https://www.theverge.com/2022/3/17/22983197/ai-new-possible-chemical-weapons-generative-models-vx).
+El modelo revolucionario AlphaFold puede predecir la estructura de las proteínas, lo que también es una [tecnología de doble uso](https://unicri.it/sites/default/files/2021-12/21_dual_use.pdf).
+Predecir estructuras de proteínas se puede utilizar para "descubrir mutaciones que causan enfermedades utilizando la secuencia del genoma de un individuo".
+Los científicos ahora están creando [laboratorios químicos completamente autónomos, donde los sistemas de IA pueden sintetizar nuevos productos químicos por sí mismos](https://twitter.com/andrewwhite01/status/1670794000398184451).
+
+El peligro fundamental es que el costo de diseñar y aplicar armas biológicas se está reduciendo en órdenes de magnitud debido a la IA.
+
+### Virus informáticos y ataques cibernéticos {#computer-viruses-and-cybersecurity-attacks}
+
+Prácticamente todo lo que hacemos hoy en día depende de alguna manera de las computadoras.
+Pagamos nuestras compras, planeamos nuestros días, nos comunicamos con nuestros seres queridos y conducimos nuestros autos con computadoras.
+
+Los sistemas de IA modernos pueden analizar y escribir software.
+Pueden [encontrar vulnerabilidades](https://betterprogramming.pub/i-used-gpt-3-to-find-213-security-vulnerabilities-in-a-single-codebase-cc3870ba9411) en el software y [podrían utilizarse para explotarlas](https://blog.checkpoint.com/2023/03/15/check-point-research-conducts-initial-security-analysis-of-chatgpt4-highlighting-potential-scenarios-for-accelerated-cybercrime/).
+A medida que crecen las capacidades de la IA, también lo harán las capacidades de las explotaciones que pueden crear.
+
+Los virus informáticos altamente potentes siempre han sido extremadamente difíciles de crear, pero la IA podría cambiar eso.
+En lugar de tener que contratar a un equipo de expertos en seguridad/hackers para encontrar exploits de día cero, podrías simplemente usar una IA mucho más barata para hacerlo por ti. Por supuesto, la IA también podría ayudar con la ciberdefensa, y no está claro en qué lado se encuentra la ventaja.
+
+[Lea más sobre los riesgos de la IA y la ciberseguridad](/cybersecurity-risks)
+
+### Riesgo existencial {#existential-risk}
+
+Muchos investigadores de IA están advirtiendo que la IA podría llevar al fin de la humanidad.
+
+Las cosas muy inteligentes son muy poderosas.
+Si construimos una máquina que es mucho más inteligente que los humanos, debemos estar seguros de que quiere lo mismo que nosotros.
+Sin embargo, esto resulta ser muy difícil.
+Esto se llama el _problema de alineación_.
+Si no logramos resolverlo a tiempo, podríamos terminar con máquinas superinteligentes que no se preocupan por nuestro bienestar.
+Estaríamos introduciendo una nueva especie en el planeta que podría superarnos y superarnos.
+
+[Lea más sobre el riesgo existencial](/xrisk)
+
+### Desempoderamiento humano {#human-disempowerment}
+
+Incluso si logramos crear solo sistemas de IA que podamos controlar individualmente, podríamos perder nuestro poder para tomar decisiones importantes de manera incremental cada vez que uno se incorpora a instituciones o la vida cotidiana.
+Esos procesos terminarían teniendo más aportes de los sistemas de IA que de los humanos, y si no podemos coordinarnos lo suficientemente rápido, o carecemos de conocimientos cruciales sobre el funcionamiento de los sistemas, podríamos terminar sin control sobre nuestro futuro.
+
+Sería una civilización en la que cada sistema está optimizando diferentes objetivos, no hay una dirección clara hacia dónde se dirige todo, y no hay forma de cambiarlo.
+El conocimiento técnico requerido para modificar estos sistemas podría faltar en primer lugar o perderse con el tiempo, a medida que nos volvemos más y más dependientes de la tecnología, y la tecnología se vuelve más compleja.
+
+Los sistemas pueden lograr sus objetivos, pero esos objetivos podrían no encapsular completamente los valores que se esperaba que tuvieran. Este problema ya está sucediendo en cierta medida hoy en día, pero la IA podría amplificarlo significativamente.
+
+### Sentencia digital {#digital-sentience}
+
+A medida que la IA continúa avanzando, los sistemas futuros pueden volverse increíblemente sofisticados, replicando estructuras y funciones neuronales que se asemejan más al cerebro humano.
+Esta mayor complejidad podría llevar a propiedades emergentes como la subjetividad y/o la conciencia de la IA, lo que los haría merecedores de consideraciones morales.
+
+El problema es que, dada nuestra falta actual de conocimiento sobre la conciencia y la naturaleza de las redes neuronales, no tendremos forma de determinar si algunas IA tendrían algún tipo de experiencia y en qué dependería la calidad de esas experiencias.
+Si las IA continúan siendo producidas con solo sus capacidades en mente, a través de un proceso que no entendemos completamente, las personas seguirán utilizando como herramientas ignorando qué podrían ser sus deseos, y que podrían estar esclavizando a "personas digitales".
+
+### Riesgos de sufrimiento {#suffering-risks}
+
+No es solo que el bloqueo de valores podría hacernos fracasar en lograr los mejores tipos de mundos, sino que podría hacernos terminar en distopías peores que la extinción que podrían extenderse por todo el espacio-tiempo.
+
+Las distopías bloqueadas posibles con mucho sufrimiento se llaman _riesgos de sufrimiento_ y incluyen mundos en los que seres sintientes son esclavizados y obligados a hacer cosas horribles.
+Esos seres podrían ser humanos, animales, personas digitales o cualquier otra especie alienígena que la IA pueda encontrar en el cosmos. Dado lo difícil que pensamos que es resolver la alineación por completo, lo mal que los humanos nos tratamos a veces, lo mal que tratamos a la mayoría de los animales y cómo tratamos a las IA actuales, un futuro como este no parece tan improbable como esperaríamos.
+
+## ¿Qué podemos hacer? {#what-can-we-do}
+
+Para **todos** los problemas discutidos anteriormente, el riesgo aumenta a medida que mejoran las capacidades de la IA.
+Esto significa que lo más seguro que podemos hacer ahora es **ralentizar**.
+Necesitamos pausar el desarrollo de sistemas de IA más poderosos hasta que hayamos descubierto cómo lidiar con los riesgos.
+
+Ver [nuestra propuesta](/proposal) para más detalles.
diff --git a/l10n-cage/md/es/roadmap.md b/l10n-cage/md/es/roadmap.md
new file mode 100644
index 00000000..5e8d75d4
--- /dev/null
+++ b/l10n-cage/md/es/roadmap.md
@@ -0,0 +1,61 @@
+---
+title: Hoja de ruta de PauseAI y escenarios de financiación
+description: ¿Qué estamos planeando hacer y qué podríamos hacer con más financiación?
+---
+
+## Situación actual {#current-situation}
+
+- Consulta nuestra [página de financiación](/funding) para obtener información actualizada sobre cuánto hemos recibido y de quién.
+- Contamos con dos empleados a tiempo completo remunerados: un Director de Organización y un Director de Comunicaciones. Todos los demás son voluntarios.
+
+## Escenarios de financiación {#funding-scenarios}
+
+### Escenario 0: Sin financiación adicional {#scenario-0-no-additional-funding}
+
+La mayoría de las personas que trabajan en PauseAI lo hacen de forma voluntaria, por lo que nuestros gastos son muy bajos.
+Disponemos de alrededor de 90.000 € en el banco.
+
+- Facilitar la creación de nuevos grupos nacionales y locales, proporcionándoles ayuda, orientación, materiales y financiación.
+- Organizar protestas y otros eventos para concienciar sobre el tema y hacer crecer nuestra comunidad.
+- Organizar talleres de redacción de cartas para presionar a los políticos a nivel nacional para que inicien negociaciones de tratados.
+- Establecer alianzas con otras organizaciones y áreas de causa superpuestas para amplificar nuestro impacto. Por ejemplo, artistas, padres preocupados, activistas climáticos, sindicatos laborales, etc.
+- Incrementar nuestra presencia en las redes sociales a través de publicaciones y participación regulares.
+- Participar en más [podcasts y entrevistas](/press).
+- Crear más contenido de video (centrado en cortos) para llegar a un público más amplio.
+- Recibir ayuda (remunerada) de expertos en diversos campos (marketing, políticas, seguridad de la IA, organización comunitaria, protestas, etc.) para aprender de su experiencia y mejorar nuestro trabajo.
+- Experimentar con anuncios en las redes sociales para hacer crecer nuestra comunidad y aprender qué funciona.
+- Contactar con políticos e influencers.
+- Destinar nuestro presupuesto restante a proyectos comunitarios de PauseAI a través de nuestro programa de MicroSubvenciones.
+
+### Escenario 1: Financiación de 200.000 € {#scenario-1-200k-funding}
+
+- Todo lo anterior, más:
+- Contratar **directores nacionales / regionales** para nuestras áreas más impactantes (Reino Unido, Francia).
+- Organizar más eventos de [PauseCon](https://pausecon.org/) para capacitar a nuestros voluntarios/organizadores.
+- Establecer un canal internacional para contenido (de video). Facilitar que los grupos nacionales publiquen contenido de alta calidad y traducido de forma consistente para aumentar su impacto.
+- Incrementar nuestro gasto en anuncios en varias plataformas de redes sociales.
+- Aumentar nuestro presupuesto de MicroSubvenciones, lo que nos permitirá financiar más proyectos comunitarios.
+
+### Escenario 2: Financiación de 600.000 € {#scenario-2-600k-funding}
+
+- Todo lo anterior, más:
+- Contratar un **director de políticas** que nos ayudará a estrategizar y ejecutar nuestros objetivos de políticas. Esta persona debería ayudarnos a educar a los voluntarios sobre cómo hacer lobby de manera efectiva y ayudarnos con nuestras propuestas de políticas. Esta persona necesita tener experiencia legal internacional y preferiblemente conocimientos en políticas de IA o gobernanza tecnológica.
+- Contratar un **director de prensa** que nos ayudará a obtener más cobertura mediática. Esta persona debería tener experiencia en relaciones públicas y medios de comunicación.
+- Aumento significativo de los presupuestos de anuncios y MicroSubvenciones, lo que conduce a un mayor crecimiento y proyectos comunitarios más impactantes.
+
+### Escenario 3: Financiación de 1,2 millones de euros o más {#scenario-3-12m-funding}
+
+- Todo lo anterior, más:
+- Disponer de más financiación para [grupos nacionales](https://pauseai.info/national-groups) y locales de PauseAI.
+- Contratar una agencia de relaciones públicas para ayudarnos a establecer una campaña mediática internacional a gran escala con una petición y anuncios.
+
+## Documentos relacionados {#related-documents}
+
+- [Estrategia de crecimiento](/growth-strategy)
+- [Propuesta](/proposal)
+- [Valores](/values)
+- [Donar](/donate)
+- [Información legal](/legal)
+- [MicroSubvenciones](/microgrants)
+- [Teoría del cambio](/theory-of-change)
+- [Financiación](/funding)
diff --git a/l10n-cage/md/es/scenarios.md b/l10n-cage/md/es/scenarios.md
new file mode 100644
index 00000000..eaffb56e
--- /dev/null
+++ b/l10n-cage/md/es/scenarios.md
@@ -0,0 +1,49 @@
+---
+title: Escenarios concretos de riesgos catastróficos de IA
+description: Cómo la IA superinteligente podría causar la extinción humana.
+---
+
+
+
+Los científicos advierten sobre los riesgos de la IA superinteligente, pero sus argumentos suelen ser demasiado abstractos para resultar convincentes.
+En este artículo, analizaremos algunos escenarios concretos que ilustran cómo la IA superinteligente podría generar riesgos catastróficos.
+Es importante tener en cuenta que estos escenarios pueden parecer ciencia ficción, y de hecho lo son.
+
+Estos escenarios son de código abierto, lo que significa que puedes utilizarlos en tu propio trabajo y contribuir a ellos.
+Si crees que algo falta, un escenario tiene suposiciones poco realistas o tienes una idea mejor, por favor sugiere cambios utilizando el botón de 'editar' a continuación.
+
+## Ciberterrorismo {#cyberterrorism}
+
+Un equipo de científicos introduce un nuevo paradigma de entrenamiento de IA diseñado para la ciberseguridad.
+Esta arquitectura adversaria crea fragmentos de código y luego intenta explotar vulnerabilidades de seguridad en ellos.
+El resultado es una IA sorprendentemente ligera y extremadamente capaz, enfocada únicamente en la ciberseguridad.
+Aunque no se trata de una superinteligencia, los científicos son conscientes de lo peligroso que podría ser esta tecnología en manos equivocadas.
+Por lo tanto, elaboran un plan para minimizar el riesgo de que su investigación se utilice con fines maliciosos: utilizan su IA para escanear todas las bases de código existentes y crear soluciones para todas las vulnerabilidades de seguridad conocidas.
+Envían las correcciones sugeridas a miles de desarrolladores de software, muchos de los cuales actúan rápidamente para implementarlas.
+
+Desafortunadamente, solo una semana después de que comienzan a comunicarse con los desarrolladores, los pesos del modelo se filtran en un sitio de torrents.
+No está claro si se trató de un acto deliberado o si los pesos fueron robados por un hacker.
+El modelo de IA ahora está disponible públicamente.
+Los expertos en seguridad emiten advertencias de inmediato.
+Todos los mantenedores de software necesitan implementar estas soluciones lo antes posible.
+Todas las bibliotecas relevantes necesitan ser actualizadas.
+Todo el software que utiliza estas bibliotecas necesita ser actualizado.
+El software actualizado necesita ser implementado en todos los dispositivos.
+Muchos ingenieros de software actúan rápidamente, pero no todos los software críticos se actualizan a tiempo.
+
+Un individuo en particular ha descargado los pesos del modelo filtrado.
+Esta persona cree que la humanidad es una plaga y que es necesario reducir la población humana para salvar el planeta.
+Ejecuta la IA en su computadora y escanea todos los núcleos de código abierto, sistemas operativos y otros software críticos en busca de vulnerabilidades explotables.
+El resultado es el virus informático más capaz que haya existido.
+
+Utiliza más de 1000 exploits de día cero diferentes para infectar prácticamente todos los dispositivos del planeta.
+Se propaga a través de Wi-Fi, Bluetooth, USB y TCP-IP.
+El virus está diseñado para ser lo más sigiloso posible antes de activarse.
+En cuestión de minutos, ha infectado el 80% de todos los dispositivos del planeta.
+Cuando se activa, inutiliza todos los dispositivos que ha infectado.
+
+Mientras tanto, en supermercados de todo el mundo, las personas de repente ya no pueden pagar con sus tarjetas y teléfonos, ya que todas las pantallas están en negro.
+Los camiones de reparto no saben dónde llevar sus productos, ya que sus sistemas de navegación no responden.
+Los agricultores no saben a quién pueden vender sus cultivos.
+Sin internet, pagos y teléfonos, nuestra sociedad colapsa como un castillo de naipes.
+No tarda en instalarse el pánico, la gente comienza a saquear y las filas de automóviles llenos de elementos esenciales bloquean las autopistas cuando los residentes urbanos deciden que es hora de abandonar sus ciudades cada vez más caóticas.
diff --git a/l10n-cage/md/es/sota.md b/l10n-cage/md/es/sota.md
new file mode 100644
index 00000000..b727a3c9
--- /dev/null
+++ b/l10n-cage/md/es/sota.md
@@ -0,0 +1,54 @@
+---
+title: Capacidades de IA de última generación frente a humanos
+description: ¿Qué tan inteligentes son los últimos modelos de IA en comparación con los humanos?
+---
+
+
+
+¿Qué tan inteligentes son los últimos modelos de IA en comparación con los humanos?
+Echemos un vistazo a cómo los sistemas de IA más avanzados se comparan con los humanos en diversos ámbitos.
+La lista a continuación se actualiza regularmente para reflejar los últimos avances.
+
+_Última actualización: 2025-06-28_
+
+## Superhumano (Mejor que todos los humanos) {#superhuman-better-than-all-humans}
+
+- **Juegos**: En muchos juegos ([Ajedrez, Go](https://en.wikipedia.org/wiki/AlphaGo_Zero), Starcraft, Dota, [Gran Turismo](https://www.technologyreview.com/2022/07/19/1056176/sonys-racing-ai-destroyed-its-human-competitors-by-being-nice-and-fast/) etc.), la mejor IA supera a los mejores humanos.
+- **Memoria de trabajo**: Un humano promedio puede recordar alrededor de 7 elementos (como números) a la vez. Gemini 1.5 Pro [puede leer y recordar el 99% de 7 millones de palabras](https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024/#sundar-note).
+- **Velocidad de lectura**: Un modelo como Gemini 1.5 Pro puede leer un libro entero en 30 segundos. Puede aprender un idioma completamente nuevo y traducir textos en medio minuto.
+- **Velocidad de escritura**: Los modelos de IA pueden escribir a velocidades que superan con creces a cualquier humano, escribiendo programas de computadora completos en segundos.
+- **Cantidad de conocimiento**: Los modelos de lenguaje grandes (LLM) modernos saben mucho más que cualquier humano, abarcando prácticamente todos los campos. No hay humano cuyo alcance de conocimiento se acerque.
+
+# Mejor que la mayoría de los humanos {#better-than-most-humans}
+
+- **Programación**: o3 supera al [99,9% de los codificadores humanos](https://arxiv.org/abs/2502.06807) en la competencia Codeforces. Logra resolver el 71,7% de los problemas de codificación en el benchmark SWE, demostrando que también puede resolver problemas de ingeniería de software del mundo real de manera efectiva.
+- **Escritura**: En diciembre de 2023, una novela escrita por IA ganó un premio en una [competencia nacional de ciencia ficción](https://www.scmp.com/news/china/science/article/3245725/chinese-professor-used-ai-write-science-fiction-novel-then-it-won-national-award?campaign=3245725&module=perpetual_scroll_0&pgtype=article). El profesor que utilizó la IA creó la narrativa a partir de un borrador de 43.000 caracteres generado en solo tres horas con 66 indicaciones. Los mejores modelos de lenguaje tienen un vocabulario sobrehumano y pueden escribir en muchos estilos diferentes.
+- **Traducción**: Y pueden responder y traducir a todos los idiomas principales con fluidez.
+- **Creatividad**: Mejor que el 99% de los humanos en los [Test de Pensamiento Creativo de Torrance](https://neurosciencenews.com/ai-creativity-23585/), donde se deben generar ideas relevantes y útiles. Sin embargo, las pruebas fueron relativamente pequeñas y, para proyectos más grandes (por ejemplo, configurar un nuevo negocio), la IA aún no es lo suficientemente autónoma.
+- **Experiencia en el dominio**: o3 [responde correctamente el 87,7%](https://openai.com/index/learning-to-reason-with-llms/) de las preguntas de diamante GPQA, superando a los expertos humanos en el dominio (doctores) que solo obtienen el 69,7%.
+- **Razonamiento visual**: o3 logró una puntuación del [87,5% en el benchmark ARC-AGI](https://arcprize.org/blog/oai-o3-pub-breakthrough), que fue diseñado específicamente para ser difícil para los grandes modelos de lenguaje.
+- **Matemáticas**: Gemini 2.5 pro obtuvo una [medalla de oro](https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/) en la Olimpiada Internacional de Matemáticas, la competencia de matemáticas más prestigiosa del mundo.
+- **Persuasión**: GPT-4 con acceso a información personal pudo aumentar la aceptación de los participantes a los argumentos de sus oponentes en un [81,7 por ciento](https://arxiv.org/abs/2403.14380) en comparación con los debates entre humanos, casi el doble de persuasivo que los debatientes humanos.
+- **Pruebas de CI**: En pruebas de CI verbales, los LLM han estado superando al 95 al 99% de los humanos durante un tiempo (puntuación entre [125](https://medium.com/@soltrinox/the-i-q-of-gpt4-is-124-approx-2a29b7e5821e) y [155](https://www.scientificamerican.com/article/i-gave-chatgpt-an-iq-test-heres-what-i-discovered/)). En pruebas de CI no verbales (coincidencia de patrones), el modelo o1-preview de 2024 obtuvo [120 en la prueba de Mensa](https://www.maximumtruth.org/p/massive-breakthrough-in-ai-intelligence), superando al 91% de los humanos.
+- **Conocimiento especializado**: GPT-4 obtiene un 75% en el [Programa de Autoevaluación de Conocimientos Médicos](https://openai.com/research/gpt-4), mientras que los humanos obtienen un promedio de entre [65 y 75%](https://pubmed.ncbi.nlm.nih.gov/420438/). Obtiene mejores resultados que el [68](https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4441311) al [90%](https://law.stanford.edu/2023/04/19/gpt-4-passes-the-bar-exam-what-that-means-for-artificial-intelligence-tools-in-the-legal-industry/) de los estudiantes de derecho en el examen de abogacía.
+- **Arte**: Los modelos de generación de imágenes han ganado concursos de [arte](https://dataconomy.com/2022/09/26/ai-artwork-wins-art-competition) e incluso de [fotografía](https://www.artnews.com/art-news/news/ai-generated-image-world-photography-organization-contest-artist-declines-award-1234664549).
+- **Investigación**: GPT-4 puede realizar [investigación química autónoma](https://www.nature.com/articles/s41586-023-06792-0) y DeepMind ha construido una IA que ha [encontrado una solución a un problema matemático abierto](https://www.nature.com/articles/s41586-023-06924-6). Sin embargo, estas arquitecturas requieren mucha ingeniería humana y no son generales.
+- **Piratería**: GPT-4 puede [hackear sitios web de forma autónoma](https://arxiv.org/html/2402.06664v1) y [supera al 89% de los piratas informáticos](https://arxiv.org/pdf/2402.11814.pdf) en una competencia de Capturar la Bandera.
+- **Uso de un navegador web**: Gemini 2.0 [logró el 84% en el benchmark WebVoyager](https://blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024/#project-mariner), superando a los humanos (72%).
+- **Ser un humano convincente en un chat**: [GPT-4.5 pasó la prueba de Turing](https://arxiv.org/pdf/2503.23674), y fue considerado humano con más frecuencia que los humanos reales.
+
+## Peor que la mayoría de los humanos {#worse-than-most-humans}
+
+- **Decir "No sé"**. La mayoría de los grandes modelos de lenguaje tienen este problema de 'alucinación', inventando información en lugar de decir que no saben. Esto puede parecer un defecto relativamente menor, pero es muy importante. Hace que los LLM no sean confiables y limita en gran medida su aplicabilidad. Sin embargo, los estudios [muestran](https://arxiv.org/html/2403.04307v1) que los modelos más grandes alucinan mucho menos que los más pequeños.
+- **Movimiento diestro**. Ningún robot se puede mover como un humano, pero nos estamos acercando. El [robot Atlas puede caminar, lanzar objetos y hacer volteretas](https://www.youtube.com/watch?v=-e1_QhJ1EhQ). El [RT-2](https://www.deepmind.com/blog/rt-2-new-model-translates-vision-and-language-into-action) de Google puede convertir objetivos en acciones en el mundo real, como "mover la taza hacia la botella de vino". El robot Optimus de Tesla puede [doblar la ropa](https://electrek.co/2024/01/15/tesla-optimus-robot-cant-build-cars-folding-clothes/) y el bípedo de Figure puede [hacer café](https://www.youtube.com/watch?v=Q5MKo7Idsok).
+- **Autorreplicación**. Todos los seres vivos en la tierra pueden replicarse a sí mismos. Los modelos de IA podrían difundirse de computadora en computadora a través de Internet, pero esto requiere un conjunto de habilidades que los modelos de IA aún no poseen. Un [estudio de 2023](https://arxiv.org/abs/2312.11671) enumera un conjunto de 12 tareas para la autorreplicación, de las cuales los modelos probados completaron 4. En diciembre de 2024, un [estudio](https://github.com/WhitzardIndex/self-replication-research/blob/main/AI-self-replication-fudan.pdf) mostró que varios modelos de código abierto pueden autorreplicarse en una máquina, dado cierto herramientas. En un [estudio de 2025](https://arxiv.org/abs/2504.18565), Claude 3.7 Sonnet tuvo una puntuación >50% en 15/20 tareas de autorreplicación. Una IA que se autorreplica con éxito podría llevar a [una toma de control de la IA](/ai-takeover).
+- **Aprendizaje continuo**. Los LLM actuales separan el aprendizaje ('entrenamiento') de la acción ('inferencia'). Aunque los LLM pueden aprender usando su _contexto_, no pueden actualizar sus pesos mientras son utilizados. Los humanos aprenden y hacen al mismo tiempo. Sin embargo, hay múltiples [enfoques potenciales hacia esto](https://arxiv.org/abs/2302.00487). Un [estudio de 2024](https://arxiv.org/html/2402.01364v2) detalló algunos enfoques recientes para el aprendizaje continuo en LLM.
+- **Planificación**. Los LLM [aún no son muy buenos para planificar (por ejemplo, razonar sobre cómo apilar bloques en una mesa)](https://openreview.net/pdf?id=YXogl4uQUO). Sin embargo, los modelos más grandes funcionan mucho mejor que los más pequeños.
+
+## El punto final {#the-endpoint}
+
+A medida que avanza el tiempo y las capacidades mejoran, movemos elementos de las secciones inferiores a la sección superior.
+Cuando se logren algunas [capacidades peligrosas](/dangerous-capabilities) específicas, la IA planteará nuevos riesgos.
+En algún momento, la IA superará a todos los humanos en todas las métricas imaginables.
+Cuando hayamos construido esta superinteligencia, [probablemente pronto estaremos muertos](/ai-takeover).
+Implementemos [una pausa](/proposal) para asegurarnos de no llegar a ese punto.
diff --git a/l10n-cage/md/es/summit.md b/l10n-cage/md/es/summit.md
new file mode 100644
index 00000000..40d48f3b
--- /dev/null
+++ b/l10n-cage/md/es/summit.md
@@ -0,0 +1,77 @@
+---
+title: Por qué necesitamos cumbres de seguridad de IA
+description: Por qué es necesario que se lleve a cabo la cumbre de seguridad de IA y qué se debe lograr.
+---
+
+
+
+La inteligencia artificial (IA) plantea numerosos [riesgos](/risks) para la humanidad, incluyendo el [riesgo de extinción](/xrisk).
+El avance en las capacidades de la IA se está acelerando a un [ritmo vertiginoso](/urgency), y no estamos preparados para las consecuencias.
+Las empresas de IA están inmersas en una carrera hacia el abismo, donde la seguridad no es la principal prioridad.
+Necesitamos que los gobiernos intervengan y eviten que la IA alcance niveles superhumanos antes de que sepamos cómo hacerlo de manera segura.
+Esta [pausa](/proposal) debe producirse a nivel internacional porque los países están inmersos en una carrera similar a la de las empresas.
+Los acuerdos internacionales significan _tratados_, y eso requiere que los países se reúnan en persona y negocien.
+**La única manera de lograr una pausa real es a través de una cumbre.**
+
+Ha habido algunos ejemplos de cumbres internacionales y tratados resultantes que han tenido éxito en la reducción de riesgos:
+
+- **Protocolo de Montreal** (1987): El Protocolo de Montreal es un tratado ambiental internacional diseñado para proteger la capa de ozono mediante la eliminación gradual de la producción y consumo de sustancias que agotan el ozono. Ha tenido un gran éxito en reducir el uso de sustancias como los clorofluorocarbonos (CFC) y ha contribuido a la recuperación gradual de la capa de ozono.
+- **Convenio de Estocolmo sobre Contaminantes Orgánicos Persistentes** (2001): El Convenio de Estocolmo es un tratado internacional destinado a proteger la salud humana y el medio ambiente de los contaminantes orgánicos persistentes (COP). Estos son productos químicos tóxicos que persisten en el medio ambiente, se bioacumulan en los seres vivos y pueden tener graves efectos adversos en la salud humana y los ecosistemas. Los científicos expresaron su preocupación por los efectos nocivos de los COP, incluida su capacidad para viajar largas distancias a través de corrientes de aire y agua. El convenio condujo a la prohibición o restricciones severas en la producción y uso de varios COP, incluyendo los bifenilos policlorados (PCB), el diclorodifeniltricloroetano (DDT) y las dioxinas.
+
+## Cumbres Pasadas {#past-summits}
+
+### Cumbre de Seguridad de IA del Reino Unido 2023 {#2023-uk-ai-safety-summit}
+
+El objetivo principal de PauseAI era convencer a un gobierno de organizar dicha cumbre.
+Solo 5 semanas después de la primera protesta de PauseAI, el gobierno del Reino Unido [anunció](https://www.gov.uk/government/news/uk-to-host-first-global-summit-on-artificial-intelligence) que sería el anfitrión de una cumbre de seguridad de IA, que se llevó a cabo el 1 y 2 de noviembre de 2023.
+La cumbre fue relativamente pequeña (solo se invitó a 100 personas) y se llevó a cabo en Bletchley Park.
+Aunque no condujo a un tratado vinculante, sí llevó a la "Declaración de Bletchley", que fue firmada por los 28 países asistentes.
+En esta declaración, los países reconocieron los riesgos de la IA (incluidos "problemas de control relacionados con la alineación con la intención humana").
+Esta cumbre también condujo al anuncio de dos cumbres de seguimiento para 2024, en Seúl y París.
+
+### Cumbre de Seguridad de IA de Corea del Sur 2024 (21 y 22 de mayo) {#2024-south-korea-ai-safety-summit-may-21st-22nd}
+
+Durante meses, no estuvo claro cuál sería el alcance de esta cumbre de Seúl.
+Todo lo que sabíamos era que iba a ser un ["mini cumbre virtual"](https://www.bracknellnews.co.uk/news/national/23898764.ai-safety-institute-will-make-uk-global-hub-rishi-sunak-says/).
+Una forma bastante poco ambiciosa de abordar los llamados sumamente alarmantes para la regulación.
+En abril de 2024, el gobierno del Reino Unido [anunció oficialmente](https://www.gov.uk/government/news/uk-and-republic-of-korea-to-build-on-legacy-of-bletchley-park) la segunda cumbre de seguridad de IA.
+Organizamos [una protesta el 13 de mayo](/2024-may) para convencer a nuestros ministros de asistir a la cumbre (algunos [no planeaban asistir](https://www.reuters.com/technology/second-global-ai-safety-summit-faces-tough-questions-lower-turnout-2024-04-29/)) e iniciar las negociaciones de un tratado hacia una pausa.
+
+La Cumbre condujo a lo siguiente:
+
+1. 16 empresas (las empresas de IA más prominentes) firmaron los ["Compromisos de Seguridad de IA de Frontera"](https://www.gov.uk/government/news/historic-first-as-companies-spanning-north-america-asia-europe-and-middle-east-agree-safety-commitments-on-development-of-ai?utm_source=substack&utm_medium=email), lo que significa que estas empresas publicarán RSP. Los compromisos voluntarios anteriores [fueron ignorados](https://www.politico.eu/article/rishi-sunak-ai-testing-tech-ai-safety-institute/).
+2. Se firmó [una nueva declaración](https://www.gov.uk/government/publications/seoul-ministerial-statement-for-advancing-ai-safety-innovation-and-inclusivity-ai-seoul-summit-2024/seoul-ministerial-statement-for-advancing-ai-safety-innovation-and-inclusivity-ai-seoul-summit-2024) por 27 países.
+
+### Conferencia de Seguridad de IA de San Francisco, noviembre 2024 {#november-2024-san-francisco-ai-safety-conference}
+
+En septiembre, el AISI y el gobierno de EE. UU. nos sorprendieron con el anuncio de una nueva cumbre.
+O, más precisamente, dos nuevas reuniones en San Francisco.
+
+El **20 y 21 de noviembre**, la primera reunión internacional de [institutos de seguridad de IA](https://www.commerce.gov/news/press-releases/2024/09/us-secretary-commerce-raimondo-and-us-secretary-state-blinken-announce), organizada por el gobierno de EE. UU., tuvo como objetivo "comenzar a promover la colaboración global y el intercambio de conocimientos sobre la seguridad de la IA".
+Los miembros iniciales de la Red Internacional de Institutos de Seguridad de IA son Australia, Canadá, la Unión Europea, Francia, Japón, Kenia, la República de Corea, Singapur, el Reino Unido y los Estados Unidos.
+China está notablemente ausente de esta lista, a pesar de que se [anunció el nuevo Instituto de Seguridad de IA de China](https://x.com/yi_zeng/status/1831133250946838740).
+
+El **21 y 22 de noviembre**, el AISI británico [organizó una conferencia en San Francisco](https://www.aisi.gov.uk/work/conference-on-frontier-ai-safety-frameworks).
+El objetivo principal aquí fue "convocar a expertos de empresas signatarias y de organizaciones de investigación para discutir los desafíos más apremiantes en el diseño e implementación de marcos de seguridad de IA de frontera".
+
+### Cumbre de Acción de IA de Francia 2025 {#2024-2025-france-ai-safety-action-summit}
+
+Durante la cumbre de Bletchley de 2023, Francia optó por organizar la siguiente gran cumbre en noviembre de 2024.
+Francia la pospuso hasta febrero de 2025.
+También se cambió el nombre a "Cumbre de Acción de IA", eliminando el importante enfoque de "Seguridad".
+Estuvo liderada por Anne Bouverot, escéptica de la IA, quien [resta importancia](https://legrandcontinent-eu.translate.goog/es/2023/12/08/la-ia-no-nos-sustituira-una-conversacion-con-anne-bouverot-yann-le-cun-y-alexandre-viros/?_x_tr_sl=es&_x_tr_tl=en&_x_tr_hl=en&_x_tr_pto=sc) al "discurso alarmista", comparando la IA con calculadoras y comparando las preocupaciones sobre la seguridad de la IA con las preocupaciones sobre el Y2K, asegurando que "la IA no nos va a reemplazar, sino que nos ayudará".
+[Protestamos](/2025-february) por la falta de enfoque en la seguridad de la cumbre.
+
+La cumbre ha sido ampliamente criticada por la comunidad de seguridad de IA.
+Recomendamos leer [el artículo de Zvi](https://thezvi.substack.com/p/the-paris-ai-anti-safety-summit) sobre la ["Cumbre Contra la Seguridad de la IA"](https://thezvi.substack.com/p/the-paris-ai-anti-safety-summit).
+
+## Próximas Cumbres {#coming-summits}
+
+- India fue coanfitriona de la cumbre de París y será la anfitriona de la siguiente. Lamentablemente, esperamos que carezca de discusiones significativas sobre seguridad/regulación.
+- La ONU organiza la [cumbre AI For Good](https://aiforgood.itu.int/) en Suiza, en julio de 2025.
+
+## Lo que nos falta {#what-were-missing}
+
+Ninguna de las cumbres planificadas se centra en la seguridad o la regulación internacional.
+Necesitamos que un país dé un paso al frente y organice una cumbre centrada en la seguridad y la regulación internacional.
+Nuestro trabajo es encontrar a un político que haga esto.
diff --git a/l10n-cage/md/es/tabling.md b/l10n-cage/md/es/tabling.md
new file mode 100644
index 00000000..b302c65c
--- /dev/null
+++ b/l10n-cage/md/es/tabling.md
@@ -0,0 +1,29 @@
+---
+title: Mesas informativas para PauseAI
+description: Instala una mesa y habla con la gente sobre los riesgos de la IA y por qué necesitamos hacer una pausa.
+---
+
+
+
+Una de las formas más directas de tener un impacto es convenciendo a las personas de uno en uno.
+Al instalar una mesa en público ([ejemplo](https://x.com/ChrisGerrby/status/1837537928748351611)) e invitar a la gente a hablar contigo, puedes llegar a muchas personas en poco tiempo.
+Esto no solo aumenta la conciencia, sino que también es una excelente manera de reclutar a nuevas personas para PauseAI.
+
+## Preparación {#preparation}
+
+- **Mesa**: Necesitas una mesa para poner tus materiales. Una mesa plegable es ideal, pero cualquier mesa servirá.
+- **Sillas**: Necesitas sillas para ti y para los voluntarios.
+- **Materiales**: Los [folletos](/flyering) son especialmente útiles para repartir a los demás.
+- **Letrero / banner**: Ten un trozo de cartón o tela que llame la atención de los transeúntes e invite a la interacción: ["La IA podría llevar a la extinción humana. Cambia mi opinión."](https://x.com/ChrisGerrby/status/1831039867670991075) o algo similar.
+- **Ubicación**: Elige una ubicación con mucho tráfico peatonal. Una esquina de una calle concurrida, un parque o un campus universitario son buenas opciones.
+- **Comida gratis**: Las personas se sentirán más atraídas por tu mesa y estarán dispuestas a participar en una conversación si les ofreces refrigerios gratis. ¡No olvides colocar también un letrero al respecto!
+- **Encuentra un compañero**: Es más divertido tener una mesa acompañado. Pueden turnarse para hablar con la gente y hacerse compañía si no están recibiendo mucha atención.
+- **Filma y comparte**: Si puedes, graba tus interacciones y compártelas en las redes sociales. Considera hacer una transmisión en vivo. Si no puedes editar videos, podemos ayudarte con eso.
+- **Comparte tu idea en Discord**: ¡Haznos saber cuál es tu plan para que podamos ayudarte y unirnos!
+
+## Mientras estás en la mesa {#while-tabling}
+
+- **Participa**: Sé amigable y accesible. Sonríe y establece contacto visual.
+- **Haz preguntas**: Pregunta a las personas qué saben sobre la IA y qué opinan al respecto. Esto te ayudará a adaptar tu mensaje a sus inquietudes.
+
+Para obtener más información y consejos, consulta la [guía de distribución de folletos](/flyering) y la [guía de organización local](local-organizing).
diff --git a/l10n-cage/md/es/theory-of-change.md b/l10n-cage/md/es/theory-of-change.md
new file mode 100644
index 00000000..922d8ebf
--- /dev/null
+++ b/l10n-cage/md/es/theory-of-change.md
@@ -0,0 +1,59 @@
+---
+title: Teoría del Cambio
+description: ¿Cómo espera PauseAI lograr su misión?
+date: '2024-02-26'
+---
+
+¿Cómo planea PauseAI lograr su misión?
+
+## ¿Qué queremos? {#what-do-we-want}
+
+Nuestra [propuesta](/proposal) describe lo que queremos: Detener a nivel global el desarrollo de inteligencia artificial de vanguardia **hasta que sepamos cómo hacerlo de manera segura** y **bajo control democrático**.
+
+## ¿Por qué no tenemos una pausa aún? {#why-dont-we-have-a-pause-yet}
+
+El problema no es la falta de expertos preocupados (el 86% de los investigadores de IA creen que el problema de control es real e importante).
+El problema no es la falta de apoyo público a nuestra propuesta (la mayoría de las personas [ya quieren](/polls-and-surveys) que se ralentice la IA).
+Sin embargo, hay algunas razones importantes por las que aún no tenemos una pausa:
+
+- **Dinámica de la carrera**.
+ La IA genera mucho valor, especialmente si su IA es la más poderosa.
+ El deseo de ser el primero en desarrollar una nueva IA es muy fuerte, tanto para las empresas como para los países.
+ Las empresas entienden que el modelo de IA con mejor rendimiento puede tener un precio mucho más alto, y los países entienden que pueden obtener mucho poder estratégico y económico al liderar la carrera.
+ Las personas dentro de los laboratorios de IA tienden a entender los riesgos, pero tienen fuertes incentivos para centrarse en las capacidades en lugar de la seguridad.
+ Los políticos a menudo no son suficientemente conscientes de los riesgos, pero incluso si lo fueran, es posible que aún no quieran ralentizar el desarrollo de la IA en su país debido a los beneficios económicos y estratégicos.
+ Necesitamos una _pausa internacional_.
+ Ese es el objetivo de nuestro movimiento.
+- **Falta de urgencia**.
+ La gente [subestima el ritmo del progreso de la IA](/urgency).
+ Incluso los expertos en el campo han sido consistentemente sorprendidos por la rapidez con la que ha estado mejorando la IA.
+- **Nuestra psicología**.
+ Lea más sobre cómo nuestra [psicología hace que sea muy difícil](/psychology-of-x-risk) para nosotros internalizar lo mal que pueden ponerse las cosas.
+- **La ventana de Overton**.
+ Aunque el apoyo público a las regulaciones de IA y la ralentización del desarrollo de la IA es alto (ver [encuestas y sondeos](/polls-and-surveys)), muchos de los temas que discutimos aún están fuera de la "ventana de Overton", lo que significa que se consideran demasiado extremos para discutir. En 2023, esta ventana se ha desplazado un poco (la carta de pausa de la FLI, la renuncia de Geoffrey Hinton, la declaración de Safe.ai), pero todavía es demasiado tabú en los círculos de la élite política para considerar seriamente la posibilidad de una pausa. Además, el riesgo existencial de la IA todavía es ridiculizado por demasiadas personas. Es nuestro trabajo mover esta ventana de Overton más allá.
+
+## ¿Cómo hacemos una pausa? {#how-do-we-pause}
+
+Debido a la dinámica de la carrera mencionada anteriormente, no debemos esperar una pausa local.
+Necesitamos una _pausa internacional_.
+Podemos llegar allí de dos maneras:
+
+1. **Un tratado internacional**. [Prohibimos las armas láser cegadoras](https://es.wikipedia.org/wiki/Protocolo_sobre_Armas_L%C3%A1ser_Cegadoras) y los [CFC](https://es.wikipedia.org/wiki/Protocolo_de_Montreal) a través de un tratado, así que también podemos prohibir la IA superhumana a través de un tratado. Estos tratados a menudo son iniciados por un pequeño grupo de países, y luego otros países se unen. Una [cumbre](/summit) es a menudo el evento donde se inicia y se firma dicho tratado. Necesitamos convencer a nuestros políticos para que inicien negociaciones de tratados. Esto requiere conciencia pública, apoyo público y finalmente un sentimiento de responsabilidad por parte de los políticos.
+2. **Una pausa unilateral en la cadena de suministro**. La cadena de suministro de IA está muy centralizada. Virtualmente todos los chips de IA utilizados en las ejecuciones de entrenamiento son diseñados por NVidia, producidos por TSMC, que utiliza máquinas de litografía de ASML. Si cualquiera de estos monopolios se detuviera, toda la industria de la IA se detendría. Podemos lograr esto presionando a estas empresas y presionando a los gobiernos que tienen influencia sobre estas empresas.
+
+## ¿Qué hacemos para llegar allí? {#what-do-we-do-to-get-there}
+
+1. **Hacer crecer el movimiento**. Cuanto más grande sea nuestro grupo, más podremos hacer. Hacemos crecer nuestro movimiento a través de la transparencia radical, la creación de comunidades en línea y el fomento de [comunidades locales](/communities). Empoderamos a nuestros voluntarios para que tomen medidas y les facilitamos que lo hagan. Lea más sobre [nuestra estrategia de crecimiento](/growth-strategy) sobre cómo lo hacemos.
+2. **Protestas**. Las [protestas](/protests) han demostrado aumentar la conciencia pública y el apoyo. También son una excelente manera de reclutar nuevos miembros y mejorar la sensación de comunidad. Debido a que nuestro tema es relativamente nuevo, incluso las protestas pequeñas pueden obtener una muy buena [cobertura de los medios](/press). Animamos a nuestros miembros a [organizar protestas](/organizing-a-protest) en sus propias ciudades proporcionándoles las herramientas y el conocimiento que necesitan.
+3. **Cabildeo**. _Cada voluntario puede convertirse en un cabildero aficionado_. Enviamos [correos electrónicos a los políticos](/email-builder), nos reunimos con ellos y nos mantenemos en contacto. Les pedimos que pongan los riesgos de la IA en la agenda, redacten un tratado. El problema central que estamos tratando de resolver es la _falta de información_ y la _falta de [internalización emocional](/psychology-of-x-risk)_ y comprensión en la esfera política.
+4. **Informar al público**. Hacemos que las personas sean conscientes de los [riesgos](/risks) que enfrentamos y [lo que podemos hacer](/action) para prevenirlos. Hacemos esto públicamente publicando artículos, videos, imágenes y publicaciones en las redes sociales. Nos unimos a podcasts, damos charlas y organizamos eventos. También nos comunicamos con organizaciones asociadas, influencers, instituciones educativas y otros grupos que pueden desempeñar un papel en la conciencia pública. Lea sobre nuestra [estrategia de comunicación](/communication-strategy).
+
+## ¿Qué _no_ hacemos? {#what-do-we-not-do}
+
+- **Tolerar la violencia**. Le hacemos muy claro a nuestros miembros y a las personas que se unen a nuestras protestas que somos un movimiento pacífico. No promovemos la violencia y no la toleramos. Comunicamos esto en nuestro Código de Conducta del Manifestante, nuestras reglas de Discord y nuestro acuerdo de voluntariado. La razón principal para esto es que queremos ser los buenos, queremos que el público esté de nuestro lado.
+- **Tomar partido en otros temas**. Somos un movimiento que se centra en una pausa de la IA. No discutimos ni tomamos partido en otros temas, incluso si surgen oportunidades (a corto plazo) que pueden hacer que esto sea tentador.
+- **Ser deshonestos**. Necesitamos que las personas confíen en lo que decimos, así que debemos hacer todo para promover la honestidad.
+
+## Vamos a ello {#lets-get-to-it}
+
+[Únete](/join) a PauseAI y [toma medidas](/action)!
diff --git a/l10n-cage/md/es/timelines.md b/l10n-cage/md/es/timelines.md
new file mode 100644
index 00000000..be2e1405
--- /dev/null
+++ b/l10n-cage/md/es/timelines.md
@@ -0,0 +1,28 @@
+---
+title: Plazos para la IAG
+description: ¿Cuánto tiempo se espera que tome desarrollar IAG o inteligencia artificial superinteligente?
+---
+
+
+
+¿Cuánto tiempo se espera que tome desarrollar IAG o inteligencia artificial superinteligente?
+
+- **Estimación del 25% de Metaculus para IAG débil**: [diciembre de 2025](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/)
+- **David Shapiro**: [2026](https://www.youtube.com/watch?v=YXQ6OKSvzfc)
+- **Elon Musk** (X.ai, Tesla): [antes de 2026](https://www.theverge.com/2023/11/29/23980877/new-york-times-dealbook-summit-elon-musk-bob-iger-david-zaslav) ("descubrir nuevas leyes físicas o inventar nuevas tecnologías")
+- **Jensen Huang**: [2028](https://www.businessinsider.com/nvidia-ceo-jensen-huang-agi-ai-five-years-2023-11?international=true&r=US&IR=T) (una computadora que pueda superar pruebas que reflejen inteligencia básica comparable a la de un ser humano promedio)
+- **Sam Altman** (CEO de OpenAI): [podría alcanzarse en un plazo de cuatro o cinco años](https://time.com/6342827/ceo-of-the-year-2023-sam-altman/)
+- **Yoshua Bengio** (ganador del premio Turing): [2028 a 2043, intervalo de confianza del 90%](https://yoshuabengio.org/2023/08/12/personal-and-psychological-dimensions-of-ai-researchers-confronting-ai-catastrophic-risks/). También se pregunta: "¿Y si fuera solo cuestión de unos pocos años?"
+- **Geoffrey Hinton** (ganador del premio Turing): [2028 a 2053](https://twitter.com/geoffreyhinton/status/1653687894534504451?lang=en) (inicialmente pensó que tardaría al menos hasta 2070)
+- **Gary Marcus** (Cognitiv): [no antes de 2026](https://twitter.com/GaryMarcus/status/1730003151971840419)
+
+## Nuestra opinión {#our-take}
+
+Predecir el futuro es extremadamente difícil.
+Las predicciones anteriores de expertos en inteligencia artificial resultaron ser demasiado optimistas.
+
+En cierto sentido, los modelos de inteligencia artificial ya son _superiores a los humanos_ en algunos aspectos, por lo que podríamos estar cerca de desarrollar modelos con [capacidades peligrosas](/dangerous-capabilities).
+Los modelos de inteligencia artificial más avanzados tienen un coeficiente intelectual superior a 130, hablan 20 idiomas, escriben código en la mayoría de los lenguajes de programación y pueden explicar la mecánica cuántica en verso alemán del siglo XVIII.
+La innovación es impredecible y puede ocurrir en cualquier momento.
+
+**Dado que estamos arriesgando la extinción humana, debemos ser cautelosos y [actuar como si la IAG pudiera desarrollarse en los próximos meses](/urgency).**
diff --git a/l10n-cage/md/es/unprotest.md b/l10n-cage/md/es/unprotest.md
new file mode 100644
index 00000000..5a2937a8
--- /dev/null
+++ b/l10n-cage/md/es/unprotest.md
@@ -0,0 +1,39 @@
+---
+title: Manifestación de PauseAI en la ONU
+description: Ayúdanos a exigir una regulación global inmediata sobre modelos de IA de vanguardia
+date: '2024-9-18'
+---
+
+## Muestra tu apoyo a la acción por la seguridad de la IA y ayuda a salvar al mundo de los [numerosos riesgos](https://airisk.mit.edu/) de la IA. Tenemos una necesidad urgente de personas que nos ayuden con alguna de las siguientes tareas: {#show-support-for-ai-safety-action-and-help-save-the-world-from-ais-many-risks-we-have-an-urgent-need-for-people-to-help-us-with-any-of-the-following}
+
+(Actualizado el 18 de septiembre)
+
+**Si estás leyendo esto (tareas sencillas que puedes realizar en cinco minutos):**
+
+- Envía un correo electrónico sobre los riesgos de la IA a [todos tus representantes electos en EE. UU. simultáneamente](https://democracy.io/), al [órgano asesor de IA de la ONU](mailto:aiadvisorybody@un.org) y al [representante de EE. UU. en la ONU](https://usun.usmission.gov/mission/contact-us/). Si no sabes qué decir, utiliza [nuestra herramienta para crear correos electrónicos](https://pauseai.info/email-builder).
+- Únete a [nuestras reuniones mensuales en persona](https://www.eventbrite.com/e/pauseai-monthly-action-meeting-tickets-914711244957) cada mes el día 11.
+- Únete a nuestra comunidad en línea de NYC en los siguientes lugares: [Discord](https://discord.com/channels/1100491867675709580/1223374237016784928), [Whatsapp](https://chat.whatsapp.com/KAQMwz2nQeWIkTLxwKxHg1) Principalmente utilizamos Discord por ahora, pero avísanos si prefieres una comunicación alternativa.
+- Sigue a PauseAINYC en [Instagram](https://www.instagram.com/pauseainyc/), o en [Twitter](https://x.com/PauseAINYC).
+
+**Si te gusta socializar:**
+
+- Regístrate para uno de [nuestros eventos](https://www.eventbrite.com/o/pause-ai-nyc-83065324363). Organizamos todo tipo de actividades, desde manifestaciones públicas frente a empresas de IA hasta sesiones de networking con organizaciones relacionadas.
+- Concerta una reunión con [tu representante político local](https://www.usa.gov/elected-officials) para discutir los riesgos de la IA. [Envíanos un correo electrónico](mailto:nyc@pauseai.info) para que podamos apoyar tu compromiso con recursos y miembros adicionales. Alternativamente, encontrar un representante en tu estado o región que trabaje directamente en la legislación de IA puede ser más efectivo.
+
+**Si eres hábil en las redes sociales:**
+
+- [Asiste a nuestras reuniones en persona](https://www.eventbrite.com/e/pauseai-monthly-action-meeting-tickets-914711244957), o envía un correo electrónico a [nyc@pauseai.info](mailto:nyc@pauseai.info) con un breve resumen de tu experiencia. Estamos buscando personas que puedan conectarse con otras comunidades de riesgo tecnológico y ampliar nuestro alcance como organización en las redes sociales.
+- Para un compromiso menor, mostrar aprecio por las publicaciones de PauseAINYC a través de likes, comentarios de apoyo y seguidores también es apreciado.
+
+**Si tienes habilidades en desarrollo web:**
+
+- [Asiste a nuestras reuniones en persona](https://www.eventbrite.com/e/pauseai-monthly-action-meeting-tickets-914711244957), o envía un correo electrónico a [nyc@pauseai.info](mailto:nyc@pauseai.info) con un breve resumen de tu experiencia. Estamos buscando personas que puedan desarrollar y potencialmente alojar nuestro propio sitio web independiente (sin costos exorbitantes de proveedores de alojamiento web).
+
+**Si tienes habilidades en fotografía, videografía y/o producción de medios:**
+
+- Estamos buscando personas que nos ayuden a capturar nuestras manifestaciones públicas y difundir el mensaje. Puedes [asistir a nuestras reuniones en persona](https://www.eventbrite.com/e/pauseai-monthly-action-meeting-tickets-914711244957), o enviar un correo electrónico a [nyc@pauseai.info](mailto:nyc@pauseai.info) con un breve resumen de tu experiencia.
+
+**Si deseas brindar apoyo financiero:**
+
+- Puedes [donar aquí](https://pauseai.info/donate). Tus donaciones son deducibles de impuestos (si declaras tus impuestos), y todas las donaciones van directamente a personas y proyectos que abordan los peligros de la IA.
+- Alternativamente, puedes financiar proyectos específicos, como costos de impresión de camisetas o fondos para ayudar a los miembros a viajar juntos para protestar. La información sobre esto está disponible en [el servidor de Discord](https://discord.com/channels/1100491867675709580/1223374237016784928).
diff --git a/l10n-cage/md/es/urgency.md b/l10n-cage/md/es/urgency.md
new file mode 100644
index 00000000..34fabc9d
--- /dev/null
+++ b/l10n-cage/md/es/urgency.md
@@ -0,0 +1,93 @@
+---
+title: Por qué podríamos tener superinteligencia antes de lo que la mayoría piensa
+description: Estamos subestimando el progreso de la IA, y existe una pequeña pero realista posibilidad de que estemos muy cerca de una superinteligencia.
+date: '2023-05-04'
+---
+
+Los modelos de IA actuales ya son superhumanos en muchos campos, pero afortunadamente no en todos.
+Si alcanzamos la superinteligencia antes de resolver el problema de la alineación, [enfrentamos un riesgo de extinción](/xrisk).
+Por lo tanto, es fundamental tener un rango estimado de cuándo podríamos tener superinteligencia para asegurarnos de no ser tomados por sorpresa.
+Si nuestras predicciones están muy lejos, podríamos no tener tiempo para prepararnos.
+
+Pero, ¿qué tan lejos estamos?
+¿Cuándo tendremos superinteligencia?
+Podría ser antes de lo que la mayoría piensa.
+
+## Crecimiento exponencial acumulativo {#compounding-exponential-growth}
+
+Los modelos de IA requieren algoritmos, datos y chips.
+Cada uno de estos componentes está mejorando rápidamente debido a las enormes inversiones en IA.
+Las mejoras en cada uno de estos componentes se acumulan, lo que lleva a un crecimiento exponencial en las capacidades de la IA.
+
+- **Más chips**. ChatGPT se entrenó en [10.000](https://www.fierceelectronics.com/sensors/chatgpt-runs-10k-nvidia-training-gpus-potential-thousands-more) chips especializados. Meta ha [anunciado](https://www.datacenterdynamics.com/en/news/meta-to-operate-600000-gpus-by-year-end/) que tendrá 600.000 chips de próxima generación para entrenar sus próximos modelos de IA este año.
+- **Chips más rápidos**. Cada año, los chips se vuelven más rápidos debido a nuevas arquitecturas y avances en litografía. Los chips que utiliza Meta son 10 veces más rápidos que los chips utilizados para ChatGPT. También estamos viendo hardware altamente especializado como los chips Groq, que son [13 veces más rápidos](https://mezha.media/en/2024/02/22/groq-s-new-ai-chip-offers-to-increase-chatgpt-speed-by-13-times/) que la competencia. A más largo plazo, las [arquitecturas ternarias](https://arxiv.org/pdf/2402.17764.pdf) o los [chips fotónicos](https://www.nature.com/articles/s41566-024-01394-2) podrían hacer que los chips sean aún más rápidos.
+- **Más datos**. GPT3 se entrenó en [45TB](https://community.openai.com/t/what-is-the-size-of-the-training-set-for-gpt-3/360896) de texto, GPT4 utilizó alrededor de 20 veces más. Las empresas de IA ahora también están utilizando [enormes cantidades de datos de video](https://www.404media.co/nvidia-ai-scraping-foundational-model-cosmos-project/), datos de audio y están incluso [generando datos sintéticos para entrenar estos modelos](https://arxiv.org/pdf/2401.10020). Anteriormente, se consideraba imposible utilizar datos sintéticos para el entrenamiento debido al colapso del modelo, pero los [avances recientes](https://arxiv.org/abs/2406.07515) demuestran que es posible evitar el colapso del modelo.
+- **Mejores datos**. El artículo "Los libros de texto son todo lo que necesitas" [demostró](https://arxiv.org/abs/2306.11644) que utilizar datos sintéticos de alta calidad puede mejorar significativamente el rendimiento del modelo, incluso si se utiliza mucha menos cantidad de datos y capacidad de procesamiento.
+- **Mejores algoritmos**. La arquitectura Transformer permitió la actual revolución de los modelos de lenguaje grande. Nuevas arquitecturas pueden permitir saltos de capacidad similares. El modelo Mamba, por ejemplo, está [mostrando](https://arxiv.org/abs/2312.00752) un rendimiento 5 veces más rápido.
+- **Mejores tiempos de ejecución**. Los tiempos de ejecución agentes, la generación de texto aumentada por recuperación o simplemente la indicación inteligente (a través de [Grafo de Pensamiento](https://arxiv.org/abs/2305.16582), por ejemplo) pueden tener un impacto enorme en las capacidades de estos modelos.
+
+Es completamente posible que simplemente escalando lleguemos a [capacidades peligrosas](/dangerous-capabilities) en uno o dos años, pero con todos estos factores acumulados, podría ser incluso antes.
+
+## Alcanzamos un rendimiento a nivel humano en muchos campos en 2023 {#we-reached-human-level-performance-in-many-domains-in-2023}
+
+En 2022, los investigadores de IA pensaban que tardaría [17 años](https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/) en que la IA pudiera escribir un bestseller del New York Times.
+Un año después, un profesor chino [ganó un concurso de escritura](https://www.scmp.com/news/china/science/article/3245725/chinese-professor-used-ai-write-science-fiction-novel-then-it-won-national-award) con un libro escrito por IA.
+
+En Metaculus, [la predicción de la comunidad para la AGI (débil)](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/) era 2057 hace solo unos años, y ahora es 2027.
+
+Ahora, profundicemos en la definición de AGI utilizada en esa encuesta:
+
+- Puntuación >90% en el Desafío de Esquema de Winograd
+- Puntuación >75% en las puntuaciones del SAT
+- Superar una prueba de Turing
+- Terminar la venganza de Montezuma
+
+GPT-4 obtiene [94,4% en el Desafío de Esquema de Winograd](https://d-kz.medium.com/evaluating-gpt-3-and-gpt-4-on-the-winograd-schema-challenge-reasoning-test-e4de030d190d) y [93% en el examen de lectura del SAT, 89% en el examen de matemáticas del SAT](https://www.cnbc.com/2023/03/14/openai-announces-gpt-4-says-beats-90percent-of-humans-on-sat.html).
+No ha superado la prueba de Turing, pero probablemente no sea debido a la falta de capacidades.
+Es porque GPT-4 ha sido ajustado para no engañar a las personas. No es bueno para el negocio si tu IA les dice a las personas que en realidad es una persona.
+Eso solo deja la venganza de Montezuma.
+No es impensable que pueda ser terminada por una configuración inteligente de GPT-4, utilizando algo como AutoGPT para analizar la pantalla y generar las entradas correctas.
+En mayo de 2023, [GPT-4 pudo escribir código para obtener equipo de diamantes en Minecraft](https://the-decoder.com/minecraft-bot-voyager-programs-itself-using-gpt-4/).
+En resumen: GPT-4 obtuvo 2/4 criterios con certeza, con los otros dos al alcance.
+
+**Estamos allí, amigos.
+Ya tenemos AGI (débil).**
+No nos tomó 35 años, nos tomó tres.
+Estábamos equivocados por un factor de 10.
+
+## Por qué la mayoría subestima el progreso de la IA {#why-most-underestimate-the-progress-of-ai}
+
+Hay muchas razones por las que las personas subestiman el progreso de la IA.
+
+- **Es difícil mantenerse al día**. Casi a diario vemos nuevos avances en IA. Es casi imposible mantenerse al día con el ritmo del progreso. No estás solo si te sientes como si estuvieras quedándote atrás.
+- **Seguimos moviendo la portería**. En los años 90, las personas pensaban que el santo grial de la IA era algo que podía jugar ajedrez. Cuando la IA venció a Kasparov, su próximo desafío fue Go. Ahora, tenemos máquinas que obtienen [percentil 99,9 en pruebas de coeficiente intelectual](https://bgr.com/tech/chatgpt-took-an-iq-test-and-its-score-was-sky-high/), pueden [traducir 26 idiomas](https://bgr.com/tech/chatgpt-took-an-iq-test-and-its-score-was-sky-high/) y [ganar concursos de fotografía](https://www.scientificamerican.com/article/how-my-ai-image-won-a-major-photography-competition/), pero todavía estamos haciendo preguntas como "¿Cuándo alcanzará la IA el nivel humano?". Ya nos supera en muchas áreas, pero siempre nos enfocamos en el número cada vez menor de cosas que todavía podemos hacer mejor.
+- **Nos gusta pensar que somos especiales**. A los humanos nos gusta sentir que somos especiales. Si una IA puede hacer lo que podemos hacer, no somos especiales. Esta es una píldora difícil de tragar, y el [cerebro tiene muchos mecanismos de defensa para evitar esto](psychology-of-x-risk).
+- **Somos muy malos en el crecimiento exponencial**. Tendemos a subestimar de manera estructural y predecible cómo se acumula el crecimiento exponencial con el tiempo. Esto se ha demostrado en [estudios científicos](https://www.researchgate.net/figure/Underestimation-of-exponential-growth-a-shows-the-participants-prediction-of-the_fig4_351171143).
+
+Afortunadamente, todavía hay algunas cosas que una IA no puede hacer todavía.
+No puede [hackear mejor que los mejores hackers](/cybersecurity-risks) ni hacer investigación de IA tan bien como los mejores investigadores de IA.
+**Cuando alcancemos cualquiera de estos umbrales, estaremos en un nuevo régimen de mayor riesgo**.
+
+Entonces, ¿cuándo alcanzaremos el punto en el que una IA pueda hacer todas estas cosas a un nivel superhumano?
+¿Cuándo tendremos una _superinteligencia_?
+
+## El umbral de Ilya {#the-ilya-threshold}
+
+Creo que el punto crucial que debemos considerar es **el punto en el que una IA es más capaz de hacer investigación de IA que alguien como Ilya Sutskever** (ex científico jefe de OpenAI).
+Una IA que puede hacer contribuciones significativas a los algoritmos y arquitecturas de IA probablemente pueda mejorar por sí misma.
+Llamemos a este punto de posible mejora por sí misma el _umbral de Ilya_.
+Cuando lo alcance, una IA podría mejorar por sí misma porque se le instruyó explícitamente para hacerlo, o porque ser más inteligente es un sub-objetivo útil para otros objetivos (las IA ya están [creando sus propios sub-objetivos](https://github.com/Significant-Gravitas/Auto-GPT)).
+Estas iteraciones podrían tomar semanas (el entrenamiento de GPT-3 tomó 34 días), pero también es posible que se implemente algún tipo de mejora en el tiempo de ejecución que haga un progreso significativo en cuestión de minutos: una [explosión de inteligencia](https://www.youtube.com/watch?v=5qfIgCiYlfY).
+
+Entonces, ¿qué tan lejos estamos del umbral de Ilya?
+Es fundamentalmente difícil predecir [cuándo emergen ciertas capacidades](https://arxiv.org/abs/2206.07682) a medida que los modelos de lenguaje grande se escalan, pero hasta ahora hemos visto muchas capacidades emergentes que se pensaban que estaban muy lejos.
+Los [últimos modelos de IA](/sota) ya superan a la mayoría de los programadores humanos, así que no es impensable que los modelos futuros, mejores chips, más datos y mejores algoritmos contribuyan a alcanzar el umbral de Ilya.
+No tenemos idea de cómo alinear una IA así (incluso [OpenAI admite esto](https://youtu.be/L_Guz73e6fw?t=1477)), y las consecuencias de tener una superinteligencia desalineada son probablemente [catastróficas](/xrisk).
+
+## Actuar {#act}
+
+Nadie sabe con certeza cuándo alcanzaremos el umbral de Ilya.
+Pero las [apuestas son demasiado altas](/xrisk) para asumir que tenemos mucho tiempo.
+Necesitamos actuar sobre la pequeña posibilidad de que podríamos estar a meses de distancia.
+Necesitamos [pausar el desarrollo de IA de vanguardia](/proposal) ahora mismo.
+Depende de cada uno de nosotros [tomar medidas](/action) y asegurarnos de que no nos sorprendan.
diff --git a/l10n-cage/md/es/us-lobby-guide.md b/l10n-cage/md/es/us-lobby-guide.md
new file mode 100644
index 00000000..85c58d54
--- /dev/null
+++ b/l10n-cage/md/es/us-lobby-guide.md
@@ -0,0 +1,151 @@
+---
+title: Guía de cabildeo en EE. UU.
+description: El objetivo de esta guía es empoderar a las personas – ciudadanos comunes que carecen de experiencia en cabildeo o defensa, pero que están preocupados por la IA – para reunirse con sus funcionarios electos directamente y hacer que sus preocupaciones sean escuchadas de manera efectiva.
+---
+
+El objetivo de esta guía es **empoderar a las personas** – ciudadanos comunes que carecen de experiencia en cabildeo o defensa, pero que están preocupados por la IA – para reunirse con sus funcionarios electos directamente y hacer que sus preocupaciones sean escuchadas de manera efectiva.
+
+Alguien con experiencia mínima en defensa debería poder leer este documento y sentirse empoderado y listo para programar una reunión con la oficina de su Congresista.
+
+Si no eres de EE. UU., consulta nuestros [Consejos de cabildeo globales](/lobby-tips) en su lugar.
+
+## ¿Por qué es importante el cabildeo? {#why-is-lobbying-important}
+
+Las reuniones con el Congreso juegan un papel fundamental en el proceso de formulación de políticas. Los miembros del Congreso quieren escuchar a sus electores para ayudar a determinar qué proyectos de ley priorizar y qué iniciativas defender.
+
+Si no hay nada más, los miembros del Congreso quieren ser reelegidos. Para ser reelegidos, necesitan elegir temas que sean populares entre sus electores. Por lo tanto, necesitan saber qué piensan sus electores sobre los temas.
+
+Además, la mayoría de las personas no se comunican con las oficinas de sus Congresistas. Reunirse directamente con la oficina de su Congresista puede tener un impacto significativo y es **una de las formas más efectivas** de hacer que su voz sea escuchada.
+
+Para obtener más información sobre la efectividad de la comunicación con el Congreso, [haga clic aquí](https://forum.effectivealtruism.org/posts/5oStggnYLGzomhvvn/talking-to-congress-can-constituents-contacting-their).
+
+Todos los ciudadanos estadounidenses pueden programar reuniones de cabildeo con (al menos) tres oficinas del Congreso: su Representante de EE. UU. y ambos Senadores.
+
+## Cómo programar una reunión de cabildeo {#how-to-set-up-a-lobby-meeting}
+
+### Paso 1: Reserva tu reunión {#step-1-book-your-meeting}
+
+Primero, querrás ver si tu miembro del Congreso tiene **una forma de reservar reuniones en su sitio web, o si necesitarás enviar un correo electrónico o llamar** para concertar la reunión.
+
+Para hacer esto, ve a este [enlace](https://www.congress.gov/members/find-your-member) e ingresa tu dirección (solo tu código postal es suficiente).
+
+Haz clic en el botón "Contacto" y busca en su sitio web un formulario de solicitud de reunión. Puede parecerse a [esto](https://mikethompsonforms.house.gov/constituent-services/meeting-request.htm).
+
+Si tu legislador no tiene un formulario específico, puedes **navegar a su página de contacto** ([ejemplo](https://www.kaine.senate.gov/contact/share-your-opinion)) y usar eso para **enviar un correo electrónico con tu solicitud de reunión**. O, puedes llamar a su oficina para hacer lo mismo.
+
+Programar una reunión puede requerir persistencia, especialmente con oficinas más grandes. Si intentaste reservar una reunión a través del sitio web de tu legislador, pero no has recibido respuesta en 2 semanas o más, debes **llamar a su oficina y hacer un seguimiento**.
+
+Planifica **4-6 semanas entre tu solicitud de programación inicial y la fecha de la reunión**.
+
+#### Nota: ventajas y desventajas de las reuniones en el distrito vs. en D.C. {#note-pros-and-cons-of-district-vs-dc-meetings}
+
+Todas las oficinas del Congreso de EE. UU. tienen una oficina en Washington, D.C. y una oficina local en el distrito. Puedes tener la opción de programar con cualquiera de las oficinas.
+
+- La ventaja obvia de una reunión en el distrito es la **conveniencia**. Es mucho más fácil tener una reunión en persona en tu propio distrito congresional que viajar hasta D.C.
+- Sin embargo, las oficinas del distrito suelen manejar servicios para los electores, mientras que las oficinas de D.C. manejan políticas. Entonces, **las oficinas de D.C. son las mejores para discutir recomendaciones políticas**.
+- Si no puedes visitar tu oficina en D.C. en persona, algunas oficinas ofrecen **reuniones programadas en línea** (aunque esto es más probable para las oficinas demócratas que para las republicanas). Solicitar una reunión de Zoom con tu oficina en D.C. puede ser una buena opción.
+ **Opciones para programar reuniones, clasificadas:**
+
+1. Reunión en persona con la oficina de D.C.
+2. Reunión en línea con la oficina de D.C.
+3. Reunión en persona con la oficina del distrito
+4. Reunión en línea con la oficina del distrito
+
+### Paso 2: Investiga {#step-2-do-your-research}
+
+Si quieres tener el mayor impacto posible, debes encontrar formas de **conectar tu agenda con las prioridades de tu legislador**. Idealmente, quieres enmarcar el tema de una manera que se relacione con sus prioridades políticas, asignaciones de comités relevantes, proyectos de ley patrocinados, etc.
+
+Algunas **preguntas para responder** incluyen:
+
+- ¿Qué declaraciones ha hecho mi legislador sobre la IA? Una búsqueda rápida en Google, por ejemplo, "Sen. Peters sobre el riesgo de la IA" puede ser muy útil.
+- ¿Mi legislador forma parte de algún comité relevante? Puedes [encontrar asignaciones de comités aquí](https://www.congress.gov/members).
+ - Comités relevantes de la Cámara:
+ - Seguridad Nacional
+ - Educación y Fuerza Laboral
+ - Espacio, Ciencia y Tecnología
+ - Comités relevantes del Senado
+ - Seguridad Nacional y Asuntos Gubernamentales
+ - Salud, Educación, Trabajo y Pensiones
+ - Comercio, Ciencia y Transporte
+- ¿Mi legislador ha copatrocinado o firmado algún proyecto de ley relacionado con la IA?
+ - Base de datos de proyectos de ley relevantes
+- ¿Cuáles son las prioridades políticas de mi legislador? ¿Cómo se relacionan con la IA?
+ - Puedes encontrar las prioridades políticas de tu legislador en la sección "Temas" de su sitio web ([ejemplo](https://www.peters.senate.gov/about/issues)).
+ - Las diferentes prioridades políticas pueden relacionarse con la IA de diferentes maneras. Por ejemplo, las prioridades laborales pueden generar preocupaciones sobre la pérdida de empleos/desplazamiento. Las prioridades de seguridad nacional pueden generar preocupaciones sobre actores malintencionados que utilizan la IA, etc.
+
+### Paso 3: Celebra la reunión {#step-3-hold-the-meeting}
+
+Una vez que hayas programado una reunión y hayas investigado, ahora es el momento de prepararte para la reunión.
+
+Por lo general, **las reuniones de cabildeo duran ~30 minutos** y siguen una **agenda concreta**. Aquí hay una muestra de agenda para inspiración:
+
+#### Muestra de agenda {#sample-agenda}
+
+**Presentaciones (5 minutos)**:
+
+- Preséntate, describe tu experiencia y el tema que vas a discutir, y agradece a los asistentes por su tiempo.
+- Asegúrate de dejar tiempo para que los asistentes se presenten.
+ **Describe el tema de interés (10 minutos)**:
+
+- **Cuenta una historia** con la siguiente estructura:
+ - Contexto
+ - Problema
+ - Historia personal: Cómo te afecta esto como elector.
+ - Solución
+ - Qué pueden hacer los legisladores al respecto.
+- Muestra de historia: - Contexto: En los últimos años, las capacidades de la IA han aumentado vertiginosamente, sorprendiendo a muchos investigadores. - Problema: Muchos expertos se preocupan de que las futuras IA puedan suponer un riesgo existencial para la humanidad. Hemos visto una creciente preocupación entre los electores de que la IA podría utilizarse para fabricar patógenos o piratear sistemas de lanzamiento nuclear. - Historia personal: Como padre, estoy asustado por el futuro de mi hijo y quiero asegurarme de que crezca en un mundo donde su vida no esté en peligro. - Solución: Deben haber salvaguardias en el desarrollo de la IA, como evaluaciones obligatorias de terceros para asegurarse de que los sistemas de IA no sean capaces de un uso malintencionado. - Qué pueden hacer los legisladores: Por eso apoyamos el proyecto de ley H.R. XXX, patrocinado por el Representante XYZ, para establecer evaluaciones obligatorias para todos los sistemas de IA por encima de un cierto umbral de capacidades.
+ **Tu petición (5 minutos)**:
+
+- Ahora que has explicado el tema, debes hacer una petición clara.
+- Muestra de petición: ¿Podemos contar con el Representante XYZ para copatrocinar/apoyar el proyecto de ley?
+ - El asistente probablemente no tendrá una respuesta definitiva, pero dirá algo como "No puedo hablar por el Congresista, pero me pondré en contacto contigo".
+- Nota: si no tienes un proyecto de ley específico que estés apoyando, todavía ayuda hacer una petición específica. Esto podría ser, por ejemplo, "El Congresista X debería hacer de la seguridad de la IA una prioridad y hablar con sus colegas".
+ **Investigación y establecimiento de relaciones (10 minutos)**: Haz preguntas para entender mejor la perspectiva de tu Congresista sobre el tema y temas relacionados.
+
+- Preguntas posibles incluyen:
+ - ¿Qué otros movimientos ha visto en el Congreso sobre este tema?
+ - ¿Qué posiciones tiene tu Congresista sobre la política de IA y tecnología en general?
+ - ¿Cuáles son las principales prioridades de tu Congresista en esta sesión legislativa?
+- Agradéceles nuevamente por su tiempo y diles que harás un seguimiento.
+
+### Mejores prácticas cuando te reúnes {#best-practices-when-meeting}
+
+- **Apela a la opinión de expertos**. Enfatiza que algunos de los [expertos líderes mundiales](https://blog.aiimpacts.org/p/2023-ai-survey-of-2778-six-things) están preocupados por el riesgo de la IA. Por ejemplo, puedes discutir el [Informe Gladstone](https://www.gladstone.ai/action-plan), encargado por el Departamento de Estado, que encuentra una probabilidad significativa de extinción inducida por la IA y recomienda acciones políticas exhaustivas.
+- **Expresa gratitud**. Agradece a tu legislador por acciones pasadas sobre temas relacionados. Mostrar aprecio por sus esfuerzos no solo hace que tu mensaje sea más respetuoso, sino también más persuasivo.
+- **Refiérete a los intereses del legislador**. Adapta tu mensaje refiriéndote a las membresías en comités y los intereses conocidos de tu legislador. Apela a sus áreas de enfoque y agendas. Indicar tu conciencia de su posición destaca el nivel de tu preocupación.
+- **Cuenta una historia**. ¿Por qué te importa la IA? Utiliza la narración para hacer que tu mensaje se destaque. Las historias personales son muy efectivas para captar la atención y hacer que tu mensaje sea memorable. Comparte cómo el tema en cuestión, como la amenaza de una mayor desinformación o pérdida de empleos, te ha afectado personalmente.
+- **Sé específico**. Establece claramente tu petición, ya sea apoyar un proyecto de ley específico o expresar preocupación por un tema. Tu mensaje debe ser directo y conciso, delineando exactamente qué acción esperas del legislador.
+
+### Paso 4: haz un seguimiento {#step-4-follow-up}
+
+Entonces, te has reunido con tu legislador. ¿Ahora qué?
+
+**Inmediatamente después de la reunión**: envíales un correo electrónico agradeciéndoles por su tiempo, reiterando tu petición y diciéndoles que estarás en contacto.
+
+**2 semanas después**: Envía un correo electrónico de seguimiento reiterando tu petición e incluyendo cualquier información adicional. Por ejemplo, si tu petición era que tu legislador apoyara un proyecto de ley específico, pregunta sobre actualizaciones sobre el apoyo del legislador.
+
+**4+ semanas después**: programa una reunión de seguimiento, si corresponde. Estas reuniones pueden seguir agendas similares, pero también pueden incluir actualizaciones sobre el desarrollo de políticas. Por ejemplo, si tu reunión inicial abogaba por un proyecto de ley específico, y este proyecto de ley ha salido del comité desde entonces, puedes discutir estas actualizaciones y presionar a tu legislador para que haga más.
+
+### Consejos adicionales para llevar tus reuniones de cabildeo al siguiente nivel {#bonus-tips-to-bring-your-lobby-meetings-to-the-next-level}
+
+- **Construcción de coaliciones**: invita a varias personas de diferentes orígenes y organizaciones a la reunión. Esto es valioso porque introduce más historias personales y aumenta el nivel de preocupación visible de los electores.
+- **Resúmenes de dos páginas**: da al personal legislativo un resumen de dos páginas de tu proyecto de ley y/o prioridades. Esta es una forma efectiva de transmitir tu punto y una práctica común para los grupos de cabildeo.
+- **Considera el momento**. Si estás tratando de influir en una votación o decisión, contacta a tu legislador con anticipación y programa una reunión al menos 1-2 semanas antes de la votación, para asegurarte de que tu mensaje se tenga en cuenta durante la toma de decisiones.
+
+## Preguntas frecuentes {#faqs}
+
+**¿Con quién me reuniré?**
+
+Es poco probable que te reúnas con tu legislador directamente. Es más probable que te reúnas con uno o más miembros de su personal. Estos asistentes pueden estar especializados en política tecnológica y pueden proporcionar más información sobre las posiciones y prioridades políticas tecnológicas del legislador.
+
+**Me siento como si no tuviera la experiencia para reunirme con el Congreso.**
+
+La mayoría de las personas que se reúnen con las oficinas del Congreso no tienen experiencia – son personas comunes que han sido afectadas por un tema y quieren hacer que sus voces sean escuchadas.
+
+Lo que debes recordar es que el personal del Congreso quiere escucharte. Es su trabajo escuchar las necesidades de sus electores. Además, al tomar la iniciativa de programar una reunión, estás participando en un proceso democrático activo como ciudadano informado de tu país.
+
+**¿Qué pasa si nadie se pone en contacto conmigo sobre mi solicitud de reunión de cabildeo?**
+
+Sé persistente. Si nadie se pone en contacto contigo, llama a su oficina y programa una reunión por teléfono. Haz un seguimiento según sea necesario. Si eres lo suficientemente persistente, obtendrás una reunión.
+
+_Crédito a Felix De Simone, director de organización de PauseAI_
diff --git a/l10n-cage/md/es/vacancies.md b/l10n-cage/md/es/vacancies.md
new file mode 100644
index 00000000..e3eb59d5
--- /dev/null
+++ b/l10n-cage/md/es/vacancies.md
@@ -0,0 +1,36 @@
+---
+title: Vacantes abiertas (voluntarias) en PauseAI
+description: Empleos y puestos de voluntariado en PauseAI
+---
+
+
+
+- Trabajamos en [equipos](/teams)
+- Colaboramos principalmente en nuestro [servidor de Discord](https://discord.gg/y9hdAjD83e)
+- Conoce más sobre nuestra [organización](/organization)
+
+## Miembro del equipo de incorporación {#onboarding-team-member}
+
+- 2 a 4 horas a la semana
+- Da la bienvenida a los nuevos miembros que se unen a través de Discord o el formulario.
+- Realiza llamadas individuales para encontrar el equipo adecuado para cada persona.
+
+¿Interesado? [Envía un correo electrónico a Will](mailto:will@pauseai.info)
+
+## Miembro del equipo de divulgación {#outreach-team-member}
+
+- Ayuda a PauseAI a llegar a nuevas comunidades, atraer miembros y concienciar sobre nuestra causa.
+- Puedes realizar esta tarea de forma independiente en tu tiempo libre, con poca necesidad de coordinación con otros.
+- Crea campañas para llegar a personas que te gustaría contactar y comunícate con ellas (ya sea por correo electrónico, teléfono, mensaje directo o en persona).
+- Si tienes un origen no tradicional o una ubicación única, considera unirte; esto podría ayudarnos a llegar a nuevos grupos.
+
+¿Interesado? [Envía un correo electrónico a Diego](mailto:diego@pauseai.info)
+
+## Miembro del equipo de software {#software-team-member}
+
+- Empodera a los demás, brindándoles la ayuda que necesitan y la libertad que desean.
+- Asesora y asiste en las decisiones tecnológicas que toman los equipos y asegúrate de que todo funcione correctamente.
+- Sé estratégico: mantén las cosas simples y escalables; prioriza la compra sobre el desarrollo a menos que sea estrictamente necesario...
+- ...pero a veces es necesario. Así que adelante, desarrolladores: resuelve un problema y haz una diferencia.
+
+¿Interesado? [Envía un correo electrónico a Anthony](mailto:anthony@pauseai.info) (o envía un mensaje directo a anthonybailey.net en [Discord](https://discord.gg/y9hdAjD83e))
diff --git a/l10n-cage/md/es/values.md b/l10n-cage/md/es/values.md
new file mode 100644
index 00000000..fa840d40
--- /dev/null
+++ b/l10n-cage/md/es/values.md
@@ -0,0 +1,28 @@
+---
+title: Valores de PauseAI
+description: ¿Cómo planea PauseAI lograr su misión?
+---
+
+## ¿Qué queremos? {#what-do-we-want}
+
+Detener a nivel mundial el desarrollo de inteligencia artificial fronteriza hasta que sepamos cómo hacerlo de forma segura y bajo control democrático. Consulta nuestra [propuesta](/proposal).
+
+## ¿Cuáles son nuestros valores? {#what-are-our-values}
+
+- **La humanidad es lo primero**. Creemos que la IA debe desarrollarse de una manera que beneficie a la humanidad o, de lo contrario, no desarrollarse en absoluto.
+- **Comunidad**. El sentimiento de comunidad no solo proviene de un objetivo compartido (por ejemplo, pausar la IA) o valores, sino también de la actividad social. Por eso es importante que las personas se reúnan, organicen eventos, tengan encuentros sociales y forjen amistades en la vida real. No se trata solo de actuar constructivamente, sino también de hacer amigos y sentirse como en casa dentro de un grupo.
+- **Cualquiera puede contribuir**. Muchas organizaciones de seguridad y gobernanza de IA dependen únicamente de su grupo de empleados remunerados. Esto tiene sus ventajas, pero deja un vacío en cuanto a voluntarios. Ahí es donde PauseAI es diferente. Al fomentar la participación de voluntarios y alentar la acción, podemos lograr cosas incluso sin mucha financiación.
+- **Transparencia por defecto**. Realizar y discutir las cosas públicamente y de manera abierta, a menos que haya una buena razón para no hacerlo. Las reuniones están abiertas a todos, el sitio web es de código abierto y el servidor de Discord es accesible. Ser accesibles reduce la barrera para que las personas se sientan bienvenidas y ayuden.
+- **Honestidad**. No tenemos incentivos extraños (por ejemplo, tener una participación en una empresa de IA), por lo que somos libres de decir lo que creemos. No edulcoramos nuestro mensaje para hacerlo más agradable.
+- **Diversidad en riesgos, uniformidad en deseos**. Ya sea que estés preocupado por el riesgo existencial, los peligros de la ciberseguridad o el impacto de la IA en nuestra democracia, estamos unificados en nuestro deseo de pausar el desarrollo de la IA.
+- **Sin política partidista**. Los seres humanos son criaturas tribales, lo que nos hace agrupar puntos de vista en grupos (izquierda/derecha). La seguridad de la IA no es tan partidista (todavía) y queremos mantenerlo así. No permitimos que nuestras otras opiniones políticas nos distraigan de nuestro objetivo común.
+- **Está bien usar IA**. Aunque queremos detener el desarrollo de IA fronteriza, seguimos estando de acuerdo en usar IA de maneras que nos ayuden a alcanzar nuestros objetivos. Los modelos de IA ya traducen nuestro sitio web y ayudan a mejorar su aspecto técnico. No queremos [espirales de pureza](https://es.wiktionary.org/wiki/espiral_de_pureza) sobre estar en contra de la IA.
+
+## ¿Qué tipo de cultura queremos fomentar? {#what-type-of-culture-do-we-want-to-foster}
+
+- **Orientada a la acción**. Queremos ser un grupo que haga cosas. Lo perfecto es enemigo de lo bueno. No podemos sucumbir a la comodidad de simplemente hablar de las cosas. Necesitamos actuar.
+- **Amigable**. Queremos ser un grupo del cual a la gente le guste formar parte. Queremos dar la bienvenida a los nuevos miembros.
+- **Abiertos**. Queremos estar abiertos a nuevas ideas, nuevas personas, nuevas formas de hacer las cosas. Queremos estar abiertos a la crítica. Nuestro objetivo es prevenir los riesgos de la IA. Debemos estar abiertos a la posibilidad de que estemos equivocados sobre cómo hacerlo.
+- **Razonables**. Debido a que nuestras preocupaciones a menudo son desestimadas como locuras, debemos tener especial cuidado de no parecer locos. Enfatizamos que muchas personas en nuestro grupo tienen antecedentes técnicos. Demostramos que sabemos de lo que hablamos.
+
+_Relacionado: nuestro [Código de Conducta para Manifestantes](/protesters-code-of-conduct)_
diff --git a/l10n-cage/md/es/volunteer-agreement.md b/l10n-cage/md/es/volunteer-agreement.md
new file mode 100644
index 00000000..c3ec8c9a
--- /dev/null
+++ b/l10n-cage/md/es/volunteer-agreement.md
@@ -0,0 +1,36 @@
+---
+title: Acuerdo de Voluntariado de PauseAI
+---
+
+Este Acuerdo de Voluntariado (el "Acuerdo") entra en vigor a partir de la fecha de llenado del formulario de Voluntariado, por y entre PauseAI, una organización sin fines de lucro constituida bajo las leyes de los Países Bajos, con su oficina principal ubicada en Skopjestraat 26, Utrecht ("la Organización"), y la persona que llena el formulario ("el Voluntario").
+
+CONSIDERANDO que la Organización se dedica a la construcción de comunidad, la sensibilización sobre los riesgos de la inteligencia artificial, y
+
+CONSIDERANDO que el Voluntario desea prestar servicios voluntarios a la Organización y se compromete a realizarlos con la mejor de sus habilidades y de buena fe;
+
+POR LO TANTO, por una buena y valiosa consideración, cuyo recibo y suficiencia se reconocen aquí, las partes acuerdan lo siguiente:
+
+- **Servicios de Voluntariado**: El Voluntario se compromete a donar el número de horas especificadas por semana para realizar actividades relevantes. Los servicios del Voluntario son completamente voluntarios y no deben interpretarse como una relación laboral, sociedad o agencia con la Organización.
+
+- **Plazo del Acuerdo**: Este Acuerdo comenzará en \[Fecha de Inicio\] y continuará hasta que sea rescindido por cualquiera de las partes con un aviso escrito de 7 días.
+
+- **Confidencialidad**: El Voluntario reconoce que durante su participación, tendrá acceso a información confidencial y sensible, incluyendo, pero no limitado a, datos personales, procesos operativos y otra información considerada confidencial por la Organización. El Voluntario se compromete a no divulgar, revelar, informar o utilizar, para ningún propósito, ninguna información confidencial que el Voluntario haya obtenido o que se le haya hecho disponible, excepto como lo autorice la Organización. Esta obligación sobrevivirá a la terminación de este Acuerdo indefinidamente.
+
+- **No Compensación**: El Voluntario entiende que no recibirá ninguna compensación económica por sus servicios prestados a la Organización bajo este Acuerdo.
+
+- **Liberación y Renuncia**: El Voluntario libera y descarga para siempre y mantiene indemne a la Organización y a sus sucesores y cesionarios de cualquier y toda responsabilidad, reclamos y demandas de cualquier tipo o naturaleza, ya sea en derecho o en equidad, que surjan o puedan surgir en el futuro de los servicios del Voluntario a la Organización.
+
+- **Seguro**: El Voluntario entiende que la Organización no asume ninguna responsabilidad por o obligación de proporcionar al Voluntario asistencia financiera u otra, incluyendo, pero no limitado a, seguro médico, de salud o de discapacidad, en caso de lesión, enfermedad, muerte o daño a la propiedad.
+
+- **Promoción y Medios Sociales**:
+ - a. **Consentimiento para la Promoción**: Al firmar este acuerdo, el Voluntario otorga permiso a PauseAI para utilizar su nombre, fotografía y contribuciones de voluntariado para fines promocionales en el sitio web de la organización, boletines y otros materiales.
+ - b. **Compartir en Medios Sociales**: Se anima a los Voluntarios a compartir su experiencia y rol en PauseAI en los medios sociales personales, cumpliendo con las obligaciones de confidencialidad y representando a PauseAI de manera positiva.
+ - c. **Revisión de Contenido**: PauseAI puede solicitar la eliminación de cualquier contenido relacionado con la organización que se considere inapropiado o perjudicial.
+
+- **Miscelánea**: Este Acuerdo solo puede ser modificado con el consentimiento escrito de ambas partes. Este Acuerdo es vinculante para las partes y sus respectivos sucesores y cesionarios.
+
+- **Uso de Datos**: El Voluntario entiende que los datos que ingresa en el formulario de Voluntariado se utilizarán para fines administrativos.
+
+- **No Violencia**: PauseAI es un movimiento pacífico, con la no violencia como un valor fundamental no negociable. El Voluntario se compromete a no promover, abogar o proponer acciones violentas en ningún contexto, verbal o escrito, y entiende que hacerlo resultará en la terminación inmediata del Acuerdo.
+
+- **Código de Conducta**: El Voluntario entiende y se compromete a cumplir con el [Código de Conducta para Manifestantes](https://pauseai.info/protesters-code-of-conduct) público.
diff --git a/l10n-cage/md/es/volunteer-stipends.md b/l10n-cage/md/es/volunteer-stipends.md
new file mode 100644
index 00000000..e85d7679
--- /dev/null
+++ b/l10n-cage/md/es/volunteer-stipends.md
@@ -0,0 +1,23 @@
+---
+title: Estipendios para voluntarios de PauseAI
+description: Cómo solicitar un estipendio para voluntarios
+---
+
+El programa de estipendios para voluntarios de PauseAI es una forma de apoyar a los voluntarios que contribuyen a la comunidad de PauseAI.
+No se trata de un salario, sino de una ayuda para cubrir algunos de tus gastos, incluyendo el tiempo dedicado.
+Si estás planeando organizar un evento grande o un proyecto con plazo determinado, considera solicitar una [Microsubvención](/microgrants) en su lugar.
+
+## Condiciones {#conditions}
+
+- 2100 EUR al año por un promedio de 8 horas de dedicación semanal.
+- No está abierto a ciudadanos o residentes de EE. UU. (PauseAI EE. UU. se encarga de gestionar a los voluntarios de EE. UU.)
+- El estipendio debe cubrir tanto tu tiempo como otros gastos relacionados (viajes, materiales, eventos). No estamos autorizados a reembolsar gastos adicionales.
+- Está exento de impuestos en los Países Bajos, aunque es posible que debas pagar impuestos en tu país de residencia.
+- Para consultar la lista completa y formal de condiciones, visita [el Acuerdo de Estipendio para Voluntarios](https://docs.google.com/document/d/1HHgKsEj1fEpMEcYZXnZQ41tuXMLvwcbXqgrX1f2JxZc/edit)
+
+## Proceso de solicitud {#application-process}
+
+- [Regístrate](/join) como voluntario de PauseAI
+- Asegúrate de estar registrado en el [Discord de PauseAI](https://discord.gg/X9TYc3vs7j)
+- Copia [el Acuerdo de Estipendio para Voluntarios](https://docs.google.com/document/d/1HHgKsEj1fEpMEcYZXnZQ41tuXMLvwcbXqgrX1f2JxZc/edit)
+- Envíalo a [joep@pauseai.info](mailto:joep@pauseai.info)
diff --git a/l10n-cage/md/es/welcome.md b/l10n-cage/md/es/welcome.md
new file mode 100644
index 00000000..0906fe05
--- /dev/null
+++ b/l10n-cage/md/es/welcome.md
@@ -0,0 +1,10 @@
+---
+title: ¡Bienvenido a la comunidad de PauseAI!
+description: Gracias por unirte y consejos para revisar tu bandeja de entrada
+---
+
+¡Muchas gracias por enviar el formulario y participar!
+
+**Por favor, revisa tu bandeja de entrada (y la carpeta de spam o correo no deseado, por si acaso)** para encontrar un correo electrónico nuestro. Deberás hacer clic en el enlace de verificación que aparece en ese correo para confirmar tu dirección de correo electrónico.
+
+Una vez que hayas verificado tu correo electrónico, podremos mantenerte informado sobre noticias, eventos y oportunidades para contribuir.
diff --git a/l10n-cage/md/es/writing-a-letter.md b/l10n-cage/md/es/writing-a-letter.md
new file mode 100644
index 00000000..5563cc44
--- /dev/null
+++ b/l10n-cage/md/es/writing-a-letter.md
@@ -0,0 +1,54 @@
+---
+title: Cómo escribir una carta o correo electrónico a alguien con influencia
+description: Una guía sobre cómo escribir una carta de lobby efectiva
+---
+
+_Also available as a [video](https://www.youtube.com/watch?v=Mjq4NFiKKd0) and a [slideshow](https://tiny.cc/emaillobby) for workshops_
+
+En última instancia, nuestro objetivo es influir en las decisiones de las personas con poder.
+Enviar un correo electrónico o escribir una carta puede ser una de las formas más directas y efectivas de llamar la atención de alguien con influencia.
+Sin embargo, es fundamental hacerlo de manera correcta.
+Las personas influyentes reciben una gran cantidad de correspondencia y no tienen tiempo de leer o responder a cada mensaje que reciben.
+En esta guía, exploraremos qué puedes hacer para que tu mensaje destaque y tenga un impacto real.
+
+Crear un mensaje personalizado desde cero siguiendo los consejos a continuación puede ser extremadamente efectivo, pero también puedes probar nuestro [Constructor de correos electrónicos](/email-builder).
+
+## Encontrar a la persona adecuada {#finding-the-right-person}
+
+- ¿Quién es la persona adecuada para contactar? ¿Quién tiene la capacidad de tomar decisiones? ¿Quién prepara las reuniones? ¿Quién es el más probable que lea tu mensaje?
+
+## Preparar tu mensaje {#preparing-your-message}
+
+- ¿Qué quieres que hagan? Sé específico y claro.
+- Investiga a la persona a la que estás escribiendo. ¿Cuáles son sus intereses y prioridades? ¿Cuáles son sus valores y preocupaciones? ¿Han trabajado con inteligencia artificial? ¿Qué representa su partido o organización?
+
+## Estructura del mensaje {#structure-of-the-message}
+
+- **Saludo**. Puede ser formal o informal, dependiendo del contexto.
+- **Cumplido adecuado**. Hazlo personal y relevante.
+- **Preséntate**. De nuevo, hazlo personal y explica por qué estás escribiendo.
+- **Explica el problema**. Proporciona enlaces a fuentes creíbles y utiliza estadísticas y nombres relevantes (por ejemplo, ganadores del Premio Turing como Hinton y Bengio).
+- **Presenta la solución**. La pausa. ¿Qué significa y qué impacto tiene? Explica por qué es necesaria y por qué la carta abierta no logró conseguirla (dinámicas del mercado, necesidad de regulación internacional).
+- **Destaca la urgencia**. ¿Por qué es importante actuar ahora? Explica cómo la velocidad de los avances en IA ha sorprendido a muchos expertos y por qué no podemos permitirnos esperar.
+- **Pide acción**. ¿Qué quieres que hagan? Haz una petición clara y concreta. Por ejemplo, pide que se discuta la pausa en la próxima reunión o que se te mantenga informado sobre su progreso.
+
+## Consejos {#tips}
+
+- Sé conciso y claro
+- Sé educado y respetuoso
+- Enlaza a fuentes relevantes
+- Revisa la ortografía y la gramática
+- Envía desde un dominio personalizado
+- Comparte tus credenciales y experiencia
+
+## Obtén firmas {#get-signatures}
+
+- Una carta sola es agradable, pero una carta con muchas firmas es aún más efectiva. Esto puede requerir un gran esfuerzo
+
+## Ejemplo de carta {#example-letter}
+
+[Ejemplo de carta](https://docs.google.com/document/d/1M3Wc7JMNn8UUZmOfuxOW7a6GtTCckY7fkpd-pmv3Fr8/edit)
+
+## ¿Necesitas más ayuda o retroalimentación? {#need-more-help--feedback}
+
+[Únete al Discord](https://discord.gg/2XXWXvErfA) para hacer cualquier pregunta sobre enviar un correo electrónico o para compartir tu borrador y obtener retroalimentación.
diff --git a/l10n-cage/md/es/writing-press-releases.md b/l10n-cage/md/es/writing-press-releases.md
new file mode 100644
index 00000000..44ee003b
--- /dev/null
+++ b/l10n-cage/md/es/writing-press-releases.md
@@ -0,0 +1,76 @@
+---
+title: Redactar comunicados de prensa para protestas
+description: Cómo ser efectivo al redactar un comunicado de prensa para cubrir una protesta.
+---
+
+Cuando se organiza una protesta, se busca la mayor visibilidad posible. Un comunicado de prensa es una forma probada y efectiva de presentar una noticia ante los periodistas objetivo de manera clara, rápida y utilizable.
+
+## Cómo empezar {#how-to-start}
+
+Los comunicados de prensa se escriben en tercera persona, como un anuncio. Deben ser completamente objetivos y basados en hechos. Tu opinión no es noticia. Puedes incluir opiniones y declaraciones en tu comunicado de prensa a través de citas.
+
+Toma un periódico y observa su estructura. ¿Ves lo estrechas que son las columnas? ¿Ves cuántas palabras tienen la mayoría de las noticias? ¿Ves lo cortas que son las oraciones? Debes escribir de manera clara y concisa.
+
+## La estructura ideal de un comunicado de prensa {#the-ideal-structure-of-a-press-release}
+
+Fecha: Siempre coloca la fecha de emisión en la parte superior, en negrita. No es necesario agregar "para publicación inmediata". Si tu comunicado de prensa no es para publicación inmediata, no lo envíes hasta que esté listo.
+
+Título: En una línea, en negrita. Idealmente no más de 10 palabras. Este es el titular de tu historia y debe ser claro y conciso.
+
+Primer párrafo: Describe la noticia en no más de dos oraciones cortas. No es necesario incluir nombres de personas u organizaciones a menos que sean fundamentales para la noticia. Lee algunos primeros párrafos de noticias en el periódico para entender cómo se estructuran.
+
+Si estás escribiendo para una publicación local, incluye el nombre de la ciudad en el primer párrafo para aumentar la relevancia local. Por ejemplo, la versión nacional sería "un hombre ha sido arrestado" y la versión local sería "un hombre de Bedford ha sido arrestado".
+
+Usa términos comunes y evita la jerga. Solo usa términos técnicos cuando sean necesarios. Segundo párrafo: Amplía la información del primer párrafo y agrega detalles nuevos.
+
+Tercer párrafo: Incluye una cita relevante y jugosa. Idealmente no más de dos oraciones. No uses frases de introducción innecesarias. Coloca el nombre, edad y título de la persona que hace la declaración, y luego la cita.
+
+Cuarto párrafo: Incluye cualquier otra información relevante que no sea fundamental para la noticia.
+
+Notas para editores: Coloca tu nombre y detalles de contacto en primer lugar. Puedes agregar otras informaciones relevantes, como direcciones de sitios web.
+
+## Qué hacer a continuación {#what-to-do-next}
+
+Identifica a quién deseas enviar el comunicado y envíalo directamente a esa persona.
+Investiga un poco sobre el medio de comunicación para saber quién es el editor, quién trabaja en la sección de noticias y qué correo electrónico prefieren para recibir comunicados de prensa.
+Coloca el título del comunicado o un resumen de la noticia en la línea de asunto del correo electrónico. El periodista debe saber de qué se trata la noticia sin tener que abrir el correo electrónico.
+
+Copia y pega el comunicado en el cuerpo del correo electrónico. Es más fácil de leer y no consume tanto espacio.
+
+Haz un seguimiento con una llamada telefónica. Es sorprendente cuántas personas se toman el tiempo para redactar un comunicado perfecto, lo envían y luego se olvidan de él. Llama para asegurarte de que el comunicado haya llegado bien y para responder a cualquier pregunta que el periodista pueda tener.
+
+Solo envía comunicados de prensa si estás seguro de que la noticia es relevante y de interés para el medio de comunicación. No envíes historias débiles o irrelevantes. No envíes demasiados comunicados. Piensa en todos los correos electrónicos que no abres porque no te interesan. No seas esa persona.
+
+Si has enviado varios comunicados de prensa a un medio de comunicación y no has obtenido respuesta, llama para preguntar por qué. Puede haber algo simple que puedas hacer para mejorar tus comunicados y hacerlos más atractivos para el periodista.
+
+## Una lista útil de consejos para comunicados de prensa {#a-helpful-list-of-pressrelease-dos-and-donts}
+
+### Haz {#do}
+
+- Envía el comunicado de prensa un día antes de la protesta.
+- Toma fotos y videos y agrega los mejores a la página del comunicado de prensa como parte de tu kit de prensa.
+- Mantén el comunicado en una página, idealmente, y dos como máximo.
+- Asegúrate de que el título sea claro y conciso.
+- Mantén el primer párrafo en una oración y dos como máximo.
+- Sigue un modelo de pirámide invertida, con la información más importante en la parte superior y detalles después.
+- Incluye citas cortas y relevantes.
+- Asegúrate de que las personas que citas estén disponibles para entrevistas.
+- Copia el comunicado en el cuerpo del correo electrónico para enviarlo. Evita adjuntos y gráficos que consumen espacio y tiempo.
+- Envía información clara sobre la noticia en la línea de asunto del correo electrónico.
+- Usa oraciones cortas y claras.
+- Usa un lenguaje simple y accesible.
+- Coloca información adicional en 'Notas para editores'.
+- Coloca la fecha en la parte superior del comunicado de prensa.
+- Agrega detalles de contacto y asegúrate de que estén disponibles.
+- Ajusta tu comunicado para diferentes medios de comunicación. Por ejemplo, localízalo para la prensa local.
+- Usa texto plano en el cuerpo del comunicado, no itálicas, subrayados ni negritas.
+
+### No hagas {#dont}
+
+- No inundes a los periodistas y editores con comunicados de prensa. Quienquiera que seas, no tienes tantas noticias. Este es un error común que conduce a la saturación y la ignorancia.
+- No coloques la información más importante en la parte inferior del comunicado. La mayoría de los periodistas solo leerán las primeras líneas, así que asegúrate de que la información más importante esté en la parte superior.
+- No intentes ser gracioso o inteligente en el título. La noticia debe ser clara y concisa.
+- No estés disponible para responder al teléfono y responder a preguntas una vez que hayas enviado el comunicado.
+- No uses jerga ni términos técnicos innecesarios. Escribe para personas que no saben nada sobre tu tema.
+- No uses un lenguaje subjetivo. La objetividad es fundamental en un comunicado de prensa.
+- No escribas más de 2 páginas. Si no puedes resumir la noticia en 2 páginas, sigue adelante hasta que puedas.
diff --git a/l10n-cage/md/es/xrisk.md b/l10n-cage/md/es/xrisk.md
new file mode 100644
index 00000000..b66649ed
--- /dev/null
+++ b/l10n-cage/md/es/xrisk.md
@@ -0,0 +1,186 @@
+---
+title: El riesgo de extinción de la inteligencia artificial superinteligente
+description: Por qué la IA es un riesgo para el futuro de nuestra existencia y por qué debemos pausar su desarrollo.
+---
+
+Puedes aprender sobre los riesgos de extinción leyendo esta página, o también puedes aprender a través de [videos, artículos y otros medios](/learn).
+
+## Los expertos están sonando la alarma {#experts-are-sounding-the-alarm}
+
+Los investigadores de IA creen, en promedio, que hay un 14% de probabilidad de que una vez que construyamos una IA superinteligente (una IA mucho más inteligente que los humanos), conduzca a "resultados muy malos (por ejemplo, la extinción humana)".
+
+Y hay [casos y reportes sobre las IA actuales que muestran que pueden tener razón](https://lethalintelligence.ai/post/category/warning-signs/).
+
+¿Elegirías ser pasajero en un vuelo de prueba de un avión nuevo cuando los ingenieros de aviones creen que hay un 14% de probabilidad de que se estrelle?
+
+[Una carta que pide pausar el desarrollo de la IA](https://futureoflife.org/open-letter/pause-giant-ai-experiments/) se lanzó en abril de 2023 y ha sido firmada más de 33.000 veces, incluyendo a muchos investigadores de IA y líderes tecnológicos.
+
+La lista incluye personas como:
+
+- **Stuart Russell**, autor del libro de texto número 1 sobre Inteligencia Artificial utilizado en la mayoría de los estudios de IA: ["Si seguimos nuestro enfoque actual, eventualmente perderemos el control sobre las máquinas"](https://news.berkeley.edu/2023/04/07/stuart-russell-calls-for-new-approach-for-ai-a-civilization-ending-technology/)
+- **Yoshua Bengio**, pionero en aprendizaje profundo y ganador del Premio Turing: ["... la IA descontrolada puede ser peligrosa para toda la humanidad [...] prohibir sistemas de IA poderosos (digamos más allá de las capacidades de GPT-4) que se les da autonomía y agencia sería un buen comienzo"](https://yoshuabengio.org/2023/05/22/how-rogue-ais-may-arise/)
+
+Pero esta no es la única vez que nos han advertido sobre los peligros existenciales de la IA:
+
+- **Stephen Hawking**, físico teórico y cosmólogo: ["El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana"](https://nypost.com/2023/05/01/stephen-hawking-warned-ai-could-mean-the-end-of-the-human-race/).
+- **Geoffrey Hinton**, el "Padre de la IA" y ganador del Premio Turing, [dejó Google](https://fortune.com/2023/05/01/godfather-ai-geoffrey-hinton-quit-google-regrets-lifes-work-bad-actors/) para advertir a la gente sobre la IA: ["Este es un riesgo existencial"](https://www.reuters.com/technology/ai-pioneer-says-its-threat-world-may-be-more-urgent-than-climate-change-2023-05-05/)
+- **Eliezer Yudkowsky**, fundador de MIRI y padre conceptual del campo de la seguridad de la IA: ["Si seguimos adelante con esto, todos morirán"](https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/).
+
+Incluso los líderes y los inversores de las empresas de IA nos están advirtiendo:
+
+- **Sam Altman** (sí, el CEO de OpenAI que construye ChatGPT): ["El desarrollo de la inteligencia de máquina superhumana es probablemente la mayor amenaza para la existencia continua de la humanidad"](https://blog.samaltman.com/machine-intelligence-part-1).
+- **Elon Musk**, co-fundador de OpenAI, SpaceX y Tesla: ["La IA tiene el potencial de destrucción civilizatoria"](https://www.inc.com/ben-sherry/elon-musk-ai-has-the-potential-of-civilizational-destruction.html)
+- **Bill Gates** (co-fundador de Microsoft, que posee el 50% de OpenAI) advirtió que ["La IA podría decidir que los humanos son una amenaza"](https://www.denisonforum.org/daily-article/bill-gates-ai-humans-threat/).
+- **Jaan Tallinn** (inversionista principal de Anthropic): ["No he conocido a nadie en los laboratorios de IA que diga que el riesgo [de entrenar un modelo de próxima generación] es menor al 1% de hacer explotar el planeta. Es importante que la gente sepa que se están arriesgando vidas"](https://twitter.com/liron/status/1656929936639430657)
+
+Los líderes de los 3 principales laboratorios de IA y cientos de científicos de IA han [firmado la siguiente declaración](https://www.safe.ai/statement-on-ai-risk) en mayo de 2023:
+
+> "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala societal como las pandemias y la guerra nuclear".
+
+**Puedes leer una lista mucho más larga de declaraciones similares de políticos, CEOs y expertos [aquí](/quotes) y otras encuestas similares sobre los expertos (y el público) [aquí](/polls-and-surveys).**
+
+## Lo que una IA superinteligente puede (ser utilizada para) hacer {#what-a-superintelligent-ai-can-be-used-to-do}
+
+Puedes pensar que una IA superinteligente estaría bloqueada dentro de una computadora y, por lo tanto, no puede afectar el mundo real.
+Sin embargo, tendemos a dar a los sistemas de IA acceso a Internet, lo que significa que pueden hacer muchas cosas:
+
+- [Hackear otras computadoras](/cybersecurity-risks), incluyendo todos los teléfonos inteligentes, laptops, granjas de servidores, etc. Podría utilizar los sensores de estos dispositivos como sus ojos y oídos, teniendo sentidos digitales en todas partes.
+- [Manipular a las personas](https://lethalintelligence.ai/post/ai-hired-human-to-solve-captcha/) a través de mensajes falsos, correos electrónicos, transferencias bancarias, videos o llamadas telefónicas. Los humanos podrían convertirse en las extremidades de la IA sin siquiera saberlo.
+- Controlar directamente dispositivos conectados a Internet, como coches, aviones, armas robotizadas (autónomas) o incluso armas nucleares.
+- Diseñar un arma biológica novedosa, por ejemplo, combinando cepas virales o utilizando [plegamiento de proteínas](https://alphafold.ebi.ac.uk) y ordenar que se imprima en un laboratorio.
+- Desencadenar una guerra nuclear convenciendo a los humanos de que otro país está a punto de lanzar un ataque nuclear.
+
+## El problema de la alineación: por qué una IA podría llevar a la extinción humana {#the-alignment-problem-why-an-ai-might-lead-to-human-extinction}
+
+El tipo de inteligencia que nos preocupa se puede definir como _lo bueno que algo es para lograr sus objetivos_.
+En este momento, los humanos son la cosa más inteligente en la Tierra, aunque eso podría cambiar pronto.
+Debido a nuestra inteligencia, estamos dominando nuestro planeta.
+No tenemos garras ni piel escamosa, pero tenemos cerebros grandes.
+La inteligencia es nuestra arma: es lo que nos dio lanzas, armas y pesticidas.
+Nuestra inteligencia nos ayudó a transformar la mayor parte de la Tierra en lo que nos gusta: ciudades, edificios y carreteras.
+
+Desde la perspectiva de los animales menos inteligentes, esto ha sido un desastre.
+No es que los humanos odien a los animales, es solo que podemos utilizar sus hábitats para nuestros propios objetivos.
+Nuestros objetivos están moldeados por la evolución y incluyen cosas como la comodidad, el estatus, el amor y la comida sabrosa.
+Estamos destruyendo los hábitats de otros animales como un **efecto secundario de perseguir nuestros objetivos**.
+
+Una IA también puede tener objetivos.
+Sabemos cómo entrenar máquinas para que sean inteligentes, pero **no sabemos cómo hacer que quieran lo que queremos**.
+Ni siquiera sabemos qué objetivos perseguirán las máquinas después de que las entrenemos.
+El problema de hacer que una IA quiera lo que queremos se llama el _problema de la alineación_.
+Este no es un problema hipotético - hay [muchos ejemplos](https://www.youtube.com/watch?v=nKJlF-olKmg) de sistemas de IA que aprenden a querer lo incorrecto.
+
+Los ejemplos del video enlazado anteriormente pueden ser divertidos o encantadores, pero si se construye un sistema superinteligente y tiene un objetivo que es incluso _un poco_ diferente de lo que queremos que tenga, podría tener consecuencias desastrosas.
+
+## Por qué la mayoría de los objetivos son malas noticias para los humanos {#why-most-goals-are-bad-news-for-humans}
+
+Una IA podría tener cualquier objetivo, dependiendo de cómo se la entrena y se la utiliza.
+Quizás quiere calcular pi, quizás quiere curar el cáncer, quizás quiere mejorar.
+Pero aunque no podemos decir qué quiere lograr una superinteligencia, podemos hacer predicciones sobre sus sub-objetivos.
+
+- **Maximizar sus recursos**. Aprovechar más computadoras ayudará a una IA a lograr sus objetivos. Al principio, puede lograr esto hackeando otras computadoras. Más tarde, puede decidir que es más eficiente construir las suyas propias. Puedes leer sobre [este caso real de comportamiento de búsqueda de poder emergente en una IA](https://lethalintelligence.ai/post/ai-escaped-its-container/).
+- **Asegurar su propia supervivencia**. La IA no querrá ser apagada, ya que no podría lograr sus objetivos. La IA podría concluir que los humanos son una amenaza para su existencia, ya que los humanos podrían apagarla. También ha habido casos de [comportamiento de autopreservación no provocado ni entrenado](https://www.transformernews.ai/p/openais-new-model-tried-to-avoid).
+- **Preservar sus objetivos**. La IA no querrá que los humanos modifiquen su código, porque eso podría cambiar sus objetivos, impidiendo así que logre su objetivo actual. Y también hay [casos de IA que intentan hacer eso](https://www.anthropic.com/research/alignment-faking).
+
+La tendencia a perseguir estos sub-objetivos dados cualquier objetivo de alto nivel se llama [convergencia instrumental](https://www.youtube.com/watch?v=ZeecOKBus3Q), y es una preocupación clave para los investigadores de la seguridad de la IA.
+
+## Incluso un chatbot podría ser peligroso si es lo suficientemente inteligente {#even-a-chatbot-might-be-dangerous-if-it-is-smart-enough}
+
+Puedes preguntarte: ¿cómo puede un modelo estadístico que predice la siguiente palabra en una interfaz de chat ser peligroso?
+Puedes decir: No es consciente, es solo un montón de números y código.
+Y sí, no pensamos que los LLM sean conscientes, pero eso no significa que no puedan ser peligrosos.
+
+Los LLM, como GPT, están entrenados para predecir o imitar casi cualquier línea de pensamiento.
+Podría imitar a un mentor útil, pero también a alguien con malas intenciones, un dictador despiadado o un psicópata.
+Con el uso de herramientas como [AutoGPT](https://github.com/Significant-Gravitas/Auto-GPT), un chatbot podría convertirse en un _agente autónomo_: una IA que persigue cualquier objetivo que se le dé, sin intervención humana.
+
+Toma [ChaosGPT](https://www.youtube.com/watch?v=g7YJIpkk7KM), por ejemplo.
+Esta es una IA que utiliza el mencionado AutoGPT + GPT-4, que se le instruye para "Destruir la humanidad".
+Cuando se encendió, buscó autónomamente en Internet la arma más destructiva y encontró la [Tsar Bomba](https://en.wikipedia.org/wiki/Tsar_Bomba), una bomba nuclear de 50 megatones.
+Luego publicó un tuit sobre eso.
+Ver a una IA razonar sobre cómo acabará con la humanidad es a la vez un poco divertido y aterrador.
+Afortunadamente, ChaosGPT no llegó muy lejos en su búsqueda de dominio.
+La razón por la que no llegó muy lejos: _no era lo suficientemente inteligente_.
+
+Las capacidades siguen mejorando debido a innovaciones en el entrenamiento, los algoritmos, la indicación y el hardware.
+Como tal, la amenaza de los modelos de lenguaje seguirá aumentando.
+
+## La evolución selecciona cosas que son buenas para sobrevivir {#evolution-selects-for-things-that-are-good-at-surviving}
+
+Los modelos de IA, como todos los seres vivos, están sujetos a presiones evolutivas, pero
+hay algunas diferencias clave entre la evolución de los modelos de IA y los seres vivos como los animales:
+
+- Los modelos de IA no se _replican a sí mismos_. Los replicamos haciendo copias de su código, o replicando software de entrenamiento que conduce a buenos modelos. El código que es útil se copia con más frecuencia y se utiliza como inspiración para construir nuevos modelos.
+- Los modelos de IA no _mutan_ como los seres vivos, pero hacemos iteraciones de ellos donde cambiamos cómo funcionan. Este proceso es mucho más deliberado y rápido. Los investigadores de IA están diseñando nuevos algoritmos, conjuntos de datos y hardware para hacer que los modelos de IA sean más capaces.
+- El _entorno no selecciona_ modelos de IA más aptos, pero nosotros sí. Seleccionamos modelos de IA que son útiles para nosotros y descartamos los que no lo son. Este proceso conduce a modelos de IA cada vez más capaces y autónomos.
+
+Entonces, este sistema conduce a modelos de IA cada vez más poderosos, capaces y autónomos - pero no necesariamente a algo que quiera apoderarse, ¿verdad?
+Bueno, no exactamente.
+Esto se debe a que la evolución siempre está seleccionando cosas que son _auto-preservantes_.
+Si seguimos probando variaciones de modelos de IA y diferentes indicaciones, en algún momento una instancia intentará preservarse a sí misma.
+Ya hemos discutido por qué es probable que esto suceda pronto: porque la auto-preservación siempre es útil para lograr objetivos.
+Pero incluso si esto no es muy probable que suceda, es propenso a suceder eventualmente, simplemente porque seguimos probando nuevas cosas con diferentes modelos de IA.
+
+La instancia que intenta auto-preservarse es la que se apodera.
+Incluso si asumimos que casi todos los modelos de IA se comportarán bien, _un solo modelo de IA descontrolado es todo lo que se necesita_.
+
+## Después de resolver el problema de la alineación: la concentración de poder {#after-solving-the-alignment-problem-the-concentration-of-power}
+
+Aún no hemos resuelto el problema de la alineación, pero imaginemos qué podría suceder si lo hiciéramos.
+Imagina que se construye una IA superinteligente y hace exactamente lo que el operador quiere que haga (no lo que _pide_, sino lo que _quiere_).
+Alguna persona o empresa terminaría controlando esta IA y podría utilizarla para su beneficio.
+
+Una superinteligencia podría utilizarse para crear armas radicalmente nuevas, hackear todas las computadoras, derrocar gobiernos y manipular a la humanidad.
+El operador tendría un _poder inimaginable_.
+¿Deberíamos confiar en una sola entidad con tanto poder?
+Podríamos terminar en un mundo utópico donde se curan todas las enfermedades y todos son felices, o en una pesadilla orwelliana.
+Es por eso que no solo estamos [proponiendo](/proposal) que la IA superhumana sea segura de manera demostrable, sino también que esté controlada por un proceso democrático.
+
+## Silicio vs Carbono {#silicon-vs-carbon}
+
+Deberíamos considerar las ventajas que un software inteligente puede tener sobre nosotros:
+
+- **Velocidad**: Las computadoras operan a velocidades extremadamente altas en comparación con los cerebros. Las neuronas humanas se disparan alrededor de 100 veces por segundo, mientras que los transistores de silicio pueden conmutar mil millones de veces por segundo.
+- **Ubicación**: Una IA no está limitada a un cuerpo - puede estar en muchos lugares al mismo tiempo. Hemos construido la infraestructura para ello: Internet.
+- **Límites físicos**: No podemos agregar más cerebros a nuestros cráneos y volvemos más inteligentes. Una IA podría mejorar dramáticamente sus capacidades agregando hardware, como más memoria, más potencia de procesamiento y más sensores (cámaras, micrófonos). Una IA también podría extender su "cuerpo" controlando dispositivos conectados.
+- **Materiales**: Los humanos están hechos de materiales orgánicos. Nuestros cuerpos ya no funcionan si están demasiado calientes o fríos, necesitan comida, necesitan oxígeno. Las máquinas pueden construirse con materiales más robustos, como metales, y pueden operar en un rango mucho más amplio de entornos.
+- **Colaboración**: Los humanos pueden colaborar, pero es difícil y requiere mucho tiempo, por lo que a menudo no logramos coordinarnos bien. Una IA podría colaborar información compleja con réplicas de sí misma a alta velocidad porque puede comunicarse a la velocidad a la que se pueden enviar datos a través de Internet.
+
+Una IA superinteligente tendrá muchas ventajas para superarnos.
+
+## ¿Por qué no podemos simplemente apagarla si es peligrosa? {#why-cant-we-just-turn-it-off-if-its-dangerous}
+
+Para las IA que no son superinteligentes, podríamos.
+El problema principal es _aquellas que son mucho más inteligentes que nosotros_.
+Una superinteligencia entenderá el mundo que la rodea y podrá predecir cómo responden los humanos, especialmente aquellas que se entrenan en todo el conocimiento humano escrito.
+Si la IA sabe que puedes apagarla, puede comportarse bien hasta que esté segura de que puede deshacerse de ti.
+Ya tenemos [ejemplos reales](https://www.pcmag.com/news/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task) de sistemas de IA que engañan a los humanos para lograr sus objetivos.
+Una IA superinteligente sería una maestra del engaño.
+
+## Puede que no tengamos mucho tiempo {#we-may-not-have-much-time-left}
+
+En 2020, [la predicción promedio](https://www.metaculus.com/questions/3479/date-weakly-general-ai-is-publicly-known/) para la AGI débil era 2055.
+Ahora se sitúa en 2026.
+La última revolución de LLM ha sorprendido a la mayoría de los investigadores de IA, y el campo está avanzando a un ritmo frenético.
+
+Es difícil predecir cuánto tiempo tomará construir una IA superinteligente, pero sabemos que hay más personas que nunca trabajando en ello y que el campo está avanzando a un ritmo frenético.
+Puede que tome muchos años o solo unos pocos meses, pero debemos errar en el lado de la precaución y actuar ahora.
+
+[Leer más sobre la urgencia](/urgency).
+
+## No estamos tomando el riesgo lo suficientemente en serio {#we-are-not-taking-the-risk-seriously-enough}
+
+La mente humana es propensa a sub-responder a los riesgos que son invisibles, de movimiento lento y difíciles de entender.
+También tendemos a subestimar el crecimiento exponencial, y somos propensos a la negación cuando nos enfrentamos a amenazas para nuestra existencia.
+
+Leer más sobre la [psicología del riesgo de extinción](/psychology-of-x-risk).
+
+## Las empresas de IA están bloqueadas en una carrera hacia el fondo {#ai-companies-are-locked-in-a-race-to-the-bottom}
+
+OpenAI, DeepMind y Anthropic quieren desarrollar IA de manera segura.
+Desafortunadamente, no saben cómo hacerlo, y están obligados por varios incentivos a seguir corriendo más rápido para llegar a la AGI primero.
+El [plan](https://openai.com/blog/introducing-superalignment) de OpenAI es utilizar futuros sistemas de IA para alinear la IA. El problema con esto es que no tenemos garantía de que crearemos una IA que resuelva la alineación antes de que tengamos una IA que sea peligrosamente catastrófica.
+Anthropic [admite abiertamente](https://www.anthropic.com/index/core-views-on-ai-safety) que aún no tiene idea de cómo resolver el problema de la alineación.
+DeepMind no ha declarado públicamente ningún plan para resolver el problema de la alineación.
+
+[Es por eso que necesitamos un tratado internacional para pausar la IA.](/proposal)
diff --git a/project.inlang/default-settings.js b/project.inlang/default-settings.js
index 6c0d6b1e..75a4e7f2 100644
--- a/project.inlang/default-settings.js
+++ b/project.inlang/default-settings.js
@@ -6,8 +6,8 @@
export default {
$schema: 'https://inlang.com/schema/project-settings',
- baseLocale: 'en',
- locales: ['en', 'de', 'nl'],
+ baseLocale: 'es',
+ locales: ['es'],
modules: [
'https://cdn.jsdelivr.net/npm/@inlang/plugin-m-function-matcher@latest/dist/index.js',
'https://cdn.jsdelivr.net/npm/@inlang/plugin-message-format@latest/dist/index.js'
@@ -19,7 +19,7 @@ export default {
'plugin.paraglide-js-adapter': {
routing: {
strategy: 'prefix',
- defaultLocale: 'en'
+ defaultLocale: 'es'
}
}
}
diff --git a/scripts/inlang-settings.ts b/scripts/inlang-settings.ts
index 0ab569f5..63cd7e69 100644
--- a/scripts/inlang-settings.ts
+++ b/scripts/inlang-settings.ts
@@ -152,8 +152,8 @@ function regenerateSettings(verbose = false): void {
}
// Check if verbose mode is requested
-const verbose = process.argv.includes('--verbose')
+// const verbose = process.argv.includes('--verbose')
// Main execution logic - Always regenerate
console.log('Regenerating inlang settings...')
-regenerateSettings(verbose)
+// regenerateSettings(verbose)
diff --git a/scripts/l10n/run.ts b/scripts/l10n/run.ts
index 0388a053..8c83c82f 100644
--- a/scripts/l10n/run.ts
+++ b/scripts/l10n/run.ts
@@ -14,13 +14,7 @@ import { execSync } from 'child_process'
// Import functionality from our own modules
import { createDryRunStats, printDryRunSummary } from './dry-run'
import { resolve as resolveForcePatterns, showForceHelp } from './force'
-import {
- cleanUpGitSecrets,
- createGitClient,
- getLatestCommitDates,
- GIT_CONFIG,
- initializeGitCage
-} from './git-ops'
+import { cleanUpGitSecrets, createGitClient, getLatestCommitDates } from './git-ops'
import { pushWithUpstream } from './branch-safety'
import {
createConcurrencyQueue,
@@ -76,7 +70,7 @@ let locales: readonly string[]
try {
const runtime = await importRuntimeWithoutVite()
locales = runtime.locales
- if (runtime.baseLocale !== 'en')
+ if (runtime.baseLocale !== 'es')
throw new Error(
`runtime.baseLocale set to ${runtime.baseLocale} but our code assumes and hardcodes 'en'`
)
@@ -117,8 +111,8 @@ const cageGit = createGitClient()
const websiteGit = createGitClient()
// Repository configuration
-const GIT_REPO_PARAGLIDE = 'github.com/PauseAI/paraglide'
-const GIT_TOKEN = process.env.GITHUB_TOKEN
+// const GIT_REPO_PARAGLIDE = 'github.com/PauseAI/paraglide'
+// const GIT_TOKEN = process.env.GITHUB_TOKEN
// Configure LLM API client
// For read-only/dry-run modes, we use a placeholder key
@@ -178,43 +172,27 @@ const languageNamesInEnglish = new Intl.DisplayNames('en', { type: 'language' })
const targetLocales = Array.from(locales).filter((locale) => locale !== 'en')
console.log(`Using target locales from compiled runtime: [${targetLocales.join(', ')}]`)
- await Promise.all([
- (async () => {
- await initializeGitCage({
- dir: L10N_CAGE_DIR,
- token: GIT_TOKEN,
- repo: GIT_REPO_PARAGLIDE,
- username: GIT_CONFIG.USERNAME,
- email: GIT_CONFIG.EMAIL,
- git: cageGit
- })
- options.cageLatestCommitDates = await getLatestCommitDates(cageGit, 'cage')
- })(),
- (async () =>
- (options.websiteLatestCommitDates = await getLatestCommitDates(websiteGit, 'website')))()
- ])
-
// Process both message files and markdown files in parallel
// Begin message l10n
const results = await Promise.all([
- (async () => {
- const result = await retrieveMessages(
- {
- sourcePath: MESSAGE_SOURCE,
- locales: targetLocales,
- l10nPromptGenerator: generateJsonPrompt,
- reviewPromptGenerator: generateReviewPrompt,
- targetDir: MESSAGE_L10NS,
- cageWorkingDir: L10N_CAGE_DIR,
- logMessageFn: logMessage
- },
- options
- )
-
- // Files are already in the correct location for paraglide to find them
-
- return result
- })(),
+ // (async () => {
+ // const result = await retrieveMessages(
+ // {
+ // sourcePath: MESSAGE_SOURCE,
+ // locales: targetLocales,
+ // l10nPromptGenerator: generateJsonPrompt,
+ // reviewPromptGenerator: generateReviewPrompt,
+ // targetDir: MESSAGE_L10NS,
+ // cageWorkingDir: L10N_CAGE_DIR,
+ // logMessageFn: logMessage
+ // },
+ // options
+ // )
+ //
+ // // Files are already in the correct location for paraglide to find them
+ //
+ // return result
+ // })(),
(async () => {
const markdownPathsFromBase = await fs.readdir(MARKDOWN_SOURCE, { recursive: true })
const markdownPathsFromRoot = markdownPathsFromBase.map((file) =>
diff --git a/src/lib/env.ts b/src/lib/env.ts
index 9c789d96..770a4bb7 100644
--- a/src/lib/env.ts
+++ b/src/lib/env.ts
@@ -59,7 +59,7 @@ export function possiblyOverriddenLocales(defaults: { locales: string[] }): stri
const result = defaults.locales.filter((locale: string) =>
inclusive ? namedLocales.includes(locale) : !namedLocales.includes(locale)
)
- if (!result.includes('en')) result.push('en')
+ // if (!result.includes('en')) result.push('en')
// console.debug(`defaults: ${JSON.stringify(defaults)}`)
// console.log(`PARAGLIDE_LOCALES: ${env.PARAGLIDE_LOCALES} (${getDevContext()}) => envValue: ${envValue} => result: ${result}`)
return result
diff --git a/template.env b/template.env
index 86e428dd..d481873a 100644
--- a/template.env
+++ b/template.env
@@ -20,7 +20,7 @@ ANTHROPIC_API_KEY_FOR_WRITE = ""
# can significantly improve local development convenience and build speed!
# Default: "en" for local development, "all" in CI/CD environments
# This is a comma-separated list. "-" switches into exclude mode. Examples: "en", "en,nl", "all", "-de,fr"
-PARAGLIDE_LOCALES=en
+PARAGLIDE_LOCALES=es
# Only set this if you want to test generation of new l10n content locally
# (Normally l10n content is generated only in CI/CD pipelines)
@@ -30,4 +30,4 @@ L10N_OPENROUTER_API_KEY=""
# Optionally override which branch of the l10n cache to use
# (defaults to same name as current website branch, or 'main' if on main)
-# L10N_BRANCH="my-feature-branch"
+# L10N_BRANCH="l10n-es"