<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Ceph on Alefnode</title><link>https://blog.alefnode.com/tags/ceph/</link><description>Recent content in Ceph on Alefnode</description><generator>Hugo</generator><language>es-ES</language><lastBuildDate>Wed, 04 Jun 2025 19:20:00 +0100</lastBuildDate><atom:link href="https://blog.alefnode.com/tags/ceph/index.xml" rel="self" type="application/rss+xml"/><item><title>El Secreto de mi HOMELAB</title><link>https://blog.alefnode.com/blog/explicando-mi-homelab/</link><pubDate>Wed, 04 Jun 2025 19:20:00 +0100</pubDate><guid>https://blog.alefnode.com/blog/explicando-mi-homelab/</guid><description>&lt;p&gt;La gente cree que construir un homelab se trata de gastar dinero en hardware caro. Pero eso es solo la mitad de la historia. El verdadero poder de un homelab no reside en sus máquinas, sino en la forma en que las conectas. Y a veces, esa conexión va más allá de las paredes de tu casa.&lt;/p&gt;
&lt;p&gt;En mi caso, la &amp;ldquo;forma&amp;rdquo; en que conecto mi homelab ha evolucionado hasta el punto de que se extiende a través de múltiples datacenters. Sí, has leído bien. No me limito a un solo servidor en mi habitación; tengo recursos distribuidos en varios centros de datos, todos funcionando como una sola red interna. La razón detrás de esto va más allá de la redundancia o la experimentación; es la búsqueda de la máxima flexibilidad y eficiencia.&lt;/p&gt;</description></item><item><title>Habilitando CEPH en Kolla</title><link>https://blog.alefnode.com/blog/habilitando-ceph-en-kolla/</link><pubDate>Mon, 15 Oct 2018 19:00:00 +0600</pubDate><guid>https://blog.alefnode.com/blog/habilitando-ceph-en-kolla/</guid><description>&lt;p&gt;En este artículo vamos a ver como podemos habilitar CEPH en un cluster de 3 servidores cuyas características revelantes para este post son.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;Servidor: Blade BL460C Gen8&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Numero de discos duros: 2&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Discos duros: HP SAS 15K 300G&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;En primer lugar cabe destacar que solo disponemos de 2 caddies para discos, lo que significa que si queremos destinar un disco completo para CEPH (recomendable) vamos a tener que prescindir de utilizar la tarjeta raid por hardware que tenemos instalada, en este sentido vamos a perder performance, sin embargo, como estamos en una arquitectura de 3 nodos replicados no supone ningún tipo de problema en cuanto a estabilidad.&lt;/p&gt;</description></item><item><title>Disaster recovery en CEPH</title><link>https://blog.alefnode.com/blog/disaster-recovery-en-ceph/</link><pubDate>Tue, 25 Sep 2018 10:30:00 +0600</pubDate><guid>https://blog.alefnode.com/blog/disaster-recovery-en-ceph/</guid><description>&lt;p&gt;En la actualidad en las arquitecturas cloud se está utilizando el SDS que significa Software Definied Storage, la idea principal de estos sistemas es tratar el almacenamiento como si fuese software independientemente del hardware físico que tengamos. Este tipo de sistemas facilita mucho a las empresas el cambio de hardware, por uno de mejores prestaciones, reduciendo el tiempo de migraciones a cero. Algunos ejemplos de SDS son; CEPH, Swift, pNFS, SDDC by VMWare,&amp;hellip;&lt;/p&gt;</description></item></channel></rss>