Autor: Fernando Rodríguez
Fernando Rodríguez
Alumni
FRR Blog
En Codex, un skill no es un /command (y en Claude Code casi sí)
Si vienes de Claude Code, esto te ahorra un buen rato de frustración: en Codex un skill no es un slash command. Sirven para
Alumni
FRR Blog
NLTagger y el análisis de sentimiento: por qué Apple cree que tu código es deprimente
NLTagger de Apple puntúa como negativo texto técnico perfectamente neutro. Análisis empírico del sesgo, por qué ocurre, y qué usar en su lugar.
Alumni
FRR Blog
Claude por la mañana, Codex por la tarde: el flujo de dos agentes que no sabía que necesitaba
165 sesiones de Claude Code y 27 de Codex CLI después, los datos muestran un patrón: cada agente brilla en un tipo de trabajo
Alumni
FRR Blog
Lo mejor que le ha pasado a Python en décadas está escrito en Rust
Python lleva años con un ecosistema de herramientas fragmentado y lento. La revolución ha venido de donde nadie esperaba: Rust. uv, Ruff y ty
Alumni
FRR Blog
Por qué la salida de mi CLI no es XML (y cómo acabé reinventando TOON sin saberlo)
XML repite tags, JSON repite claves. Cuando tu consumidor es un LLM, cada token cuenta. Historia de cómo acabé con un formato posicional compacto
Alumni
FRR Blog
Madness Driven Design: Don Quijote, Sancho Panza y tu copiloto IA
MDD: metodología para diseñar herramientas que absorban las alucinaciones de tu copiloto IA. Dos capas — arqueología de errores y verificación adversarial — inspiradas
Alumni
FRR Blog
150 líneas de disculpas eliminadas
Mi skill de Linear tenía 150 líneas de workarounds: UUIDs hardcodeados, fallbacks a curl, notas de 'la CLI no soporta X'. No las reescribí
Alumni
FRR Blog
Adversarial Programming: cuando tu copiloto IA se inventa el API
Tu IA genera código plausible contra APIs que no existen. Schema introspection, fixtures reales y separación fetch/proceso: la metodología anti-alucinación que funciona.
Alumni
FRR Blog
Linear Agent no es lo que necesitas. Tu agente ya estaba en la terminal
Linear lanzó su agente de IA. Suena bien, pero lo que necesitábamos era una CLI que no apestase. Y si hay que reescribirla, que
Alumni
FRR Blog
Transforma y vencerás: cómo Google comprime LLMs 6x cambiando de coordenadas
TurboQuant comprime el KV cache de LLMs 6x sin perder precisión. El truco: no inventar un compresor mejor, sino mover los datos a coordenadas
Alumni
FRR Blog
Tu IA escribe código que compila pero no significa nada (y un linter puede cazarla)
Los LLMs generan código que compila pero abusa de strings, opcionales y nil donde debería haber tipos específicos. Cómo detectarlo con un linter y
Alumni
FRR Blog
Tu plan.md necesita un abogado del diablo (y Codex se ofrece voluntario)
Un desarrollador hizo que Claude y Codex discutieran sobre su plan hasta que quedó bien. La idea es brillante: usar un segundo modelo como