<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Apache Tika on Alefnode</title><link>https://blog.alefnode.com/tags/apache-tika/</link><description>Recent content in Apache Tika on Alefnode</description><generator>Hugo</generator><language>es-ES</language><lastBuildDate>Mon, 11 May 2026 21:00:00 +0200</lastBuildDate><atom:link href="https://blog.alefnode.com/tags/apache-tika/index.xml" rel="self" type="application/rss+xml"/><item><title>Mi IA local se optimizó a sí misma: la arquitectura que nació de darle las llaves al modelo</title><link>https://blog.alefnode.com/blog/mi-ia-local-se-optimizo-a-si-misma/</link><pubDate>Mon, 11 May 2026 21:00:00 +0200</pubDate><guid>https://blog.alefnode.com/blog/mi-ia-local-se-optimizo-a-si-misma/</guid><description>&lt;p&gt;Llevaba un tiempo con Ollama en el homelab, probando, aprendiendo, haciendo que las cosas funcionaran. Monté mi primer despliegue, estudié cómo encajaban las piezas y empecé a sentir que podía ir un paso más allá. Pero llegó un momento en el que me planté una pregunta incómoda: &lt;strong&gt;¿esto escalaría si más de una persona lo usaba a la vez?&lt;/strong&gt; La respuesta honesta era no. Tras investigar a fondo las alternativas, quedé claro que las herramientas que estaba usando no eran las más adecuadas para ese propósito. Y en lugar de seguir parcheando, decidí replantearlo todo desde cero.&lt;/p&gt;</description></item></channel></rss>