<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Openstack on Alefnode</title><link>https://blog.alefnode.com/tags/openstack/</link><description>Recent content in Openstack on Alefnode</description><generator>Hugo</generator><language>es-ES</language><lastBuildDate>Mon, 15 Oct 2018 19:00:00 +0600</lastBuildDate><atom:link href="https://blog.alefnode.com/tags/openstack/index.xml" rel="self" type="application/rss+xml"/><item><title>Habilitando CEPH en Kolla</title><link>https://blog.alefnode.com/blog/habilitando-ceph-en-kolla/</link><pubDate>Mon, 15 Oct 2018 19:00:00 +0600</pubDate><guid>https://blog.alefnode.com/blog/habilitando-ceph-en-kolla/</guid><description>&lt;p&gt;En este artículo vamos a ver como podemos habilitar CEPH en un cluster de 3 servidores cuyas características revelantes para este post son.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;Servidor: Blade BL460C Gen8&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Numero de discos duros: 2&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Discos duros: HP SAS 15K 300G&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;En primer lugar cabe destacar que solo disponemos de 2 caddies para discos, lo que significa que si queremos destinar un disco completo para CEPH (recomendable) vamos a tener que prescindir de utilizar la tarjeta raid por hardware que tenemos instalada, en este sentido vamos a perder performance, sin embargo, como estamos en una arquitectura de 3 nodos replicados no supone ningún tipo de problema en cuanto a estabilidad.&lt;/p&gt;</description></item><item><title>Aislando proyectos en Openstack</title><link>https://blog.alefnode.com/blog/aislando-proyectos-en-openstack/</link><pubDate>Wed, 03 Oct 2018 13:30:00 +0600</pubDate><guid>https://blog.alefnode.com/blog/aislando-proyectos-en-openstack/</guid><description>&lt;p&gt;En Openstack tenemos diferentes formas de crear una arquitectura en la cual tengamos a nuestros clientes aislados (en cuanto a red se refiere), por un lado podemos preparar nuestros equipos de red para utilizar VLANs o VXLANs y taguear una diferente a cada uno de nuestros clientes de formas que cada red esté completamente aislada al mismo tiempo que tagueamos nuestra red pública para que puedan disponer de la asignación de IPs públicas.&lt;/p&gt;</description></item><item><title>Disaster recovery en CEPH</title><link>https://blog.alefnode.com/blog/disaster-recovery-en-ceph/</link><pubDate>Tue, 25 Sep 2018 10:30:00 +0600</pubDate><guid>https://blog.alefnode.com/blog/disaster-recovery-en-ceph/</guid><description>&lt;p&gt;En la actualidad en las arquitecturas cloud se está utilizando el SDS que significa Software Definied Storage, la idea principal de estos sistemas es tratar el almacenamiento como si fuese software independientemente del hardware físico que tengamos. Este tipo de sistemas facilita mucho a las empresas el cambio de hardware, por uno de mejores prestaciones, reduciendo el tiempo de migraciones a cero. Algunos ejemplos de SDS son; CEPH, Swift, pNFS, SDDC by VMWare,&amp;hellip;&lt;/p&gt;</description></item><item><title>Orquestando instancias en Openstack</title><link>https://blog.alefnode.com/blog/orquestando-instancias-en-openstack/</link><pubDate>Sat, 08 Sep 2018 10:30:41 +0600</pubDate><guid>https://blog.alefnode.com/blog/orquestando-instancias-en-openstack/</guid><description>&lt;p&gt;Desde hace algún tiempo me dedico a la automatización de cierto proyectos que tienen como fundamento la capacidad de funcionar de forma autónoma, es decir, pueden adaptarse a las necesidades que se soliciten en cada momento. Para poder realizar este tipo de tareas debemos conocer como orquestar toda nuestra plataforma.&lt;/p&gt;
&lt;p&gt;En primer lugar debemos saber exactamente de que hablamos cuando nos referimos a orquestar, para ello se define el verbo orquestar como organizar, dirigir o coordinar un plan. En el ámbito tecnológico se utiliza la orquestación para la planificación de despliegues ya bien sean de forma automática o manual.&lt;/p&gt;</description></item></channel></rss>