Ceph (software)

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Ceph (pronunciado) es una plataforma de almacenamiento definida por software, libre y de código abierto, que ofrece almacenamiento de objetos, almacenamiento en bloques y almacenamiento de archivos, basada en un clúster distribuido común. Ceph proporciona operaciones distribuidas sin un único punto de fallo y escalabilidad a nivel de exabyte. Desde la versión 12 (Luminous), Ceph no depende de ningún otro sistema de archivos convencional y gestiona directamente discos duros y SSD con su propio backend de almacenamiento, BlueStore, y puede exponer un sistema de archivos POSIX.

Ceph replica datos con tolerancia a fallos, utilizando hardware estándar y Ethernet IP, sin necesidad de soporte de hardware específico. Ceph ofrece alta disponibilidad y garantiza una gran durabilidad de los datos mediante técnicas como replicación, codificación de borrado, instantáneas y clones. Por diseño, el sistema es autoreparador y autogestionable, lo que minimiza el tiempo de administración y otros costos.Las implementaciones de Ceph para producción a gran escala incluyen CERN, OVH y DigitalOcean.

Diseño

Una visión general de alto nivel de la organización interna del Ceph
Ceph emplea cinco tipos distintos de demonios:
  • Monitores de racimo (Ceph-mon) que mantienen un seguimiento de los nodos de racimo activos y fallidos, configuración de grupos e información sobre la colocación de datos y estado de agrupación global.
  • OSD (Ceph-osd) que administra los dispositivos de almacenamiento de datos a granel directamente a través del extremo trasero de BlueStore, que desde la versión v12.x reemplaza el extremo trasero de Filestore, que se implementó en la parte superior de un sistema de archivos tradicional)
  • Servidores de metadatos (cef-mds) que mantiene y correta el acceso a inodes y directorios dentro de un sistema de archivos CephFS
  • Portones HTTP (HTTP)Ceph-rgw) que expone la capa de almacenamiento de objetos como una interfaz compatible con Amazon S3 o OpenStack Swift APIs
  • Administradores (Ceph-mgr) que realizan tareas de monitoreo de grupos, contabilidad y mantenimiento, e interfaz a sistemas de monitoreo externo y gestión (por ejemplo, balanceador, dashboard, Prometheus, plugin Zabbix)
Todos estos servicios son completamente distribuidos y pueden implementarse en servidores dedicados separados o en una topología convergente. Los clientes con diferentes necesidades interactúan directamente con los componentes del clúster correspondientes.Ceph distribuye datos entre múltiples dispositivos y nodos de almacenamiento para lograr un mayor rendimiento, de forma similar a RAID. Permite el balanceo de carga adaptativo, lo que permite replicar los servicios de acceso frecuente en más nodos.Desde septiembre de 2017, BlueStore es el backend de almacenamiento predeterminado y recomendado para entornos de producción. Este backend ofrece mejor latencia y configurabilidad que el anterior Filestore, evitando las deficiencias del almacenamiento basado en sistemas de archivos, que implica capas adicionales de procesamiento y caché. El backend Filestore quedará obsoleto a partir del lanzamiento de Reef a mediados de 2023. XFS era el sistema de archivos subyacente recomendado para los OSD de Filestore, y el uso de Btrfs se realizaba bajo la propia responsabilidad. Los sistemas de archivos ext4 no se recomendaban debido a la limitada capacidad de metadatos. El backend BlueStore aún utiliza XFS para una partición de metadatos pequeña.

Almacenamiento de objetos S3

Un diagrama de arquitectura que muestra las relaciones entre los componentes de la plataforma de almacenamiento Ceph
Ceph implementa el almacenamiento distribuido de objetos a través de RADOS GateWay (ceph-rgw), que expone la capa de almacenamiento subyacente mediante una interfaz compatible con Amazon S3 u OpenStack Swift.Las implementaciones de Ceph RGW se escalan fácilmente y suelen utilizar medios de almacenamiento grandes y densos para casos de uso masivos que incluyen Big Data (recopilación de datos), copias de seguridad y archivos, IoT, medios, grabación de video e imágenes de implementación para máquinas virtuales y contenedores.Las bibliotecas de software de Ceph proporcionan a las aplicaciones cliente acceso directo al sistema de almacenamiento basado en objetos RADOS (Almacén de Objetos Distribuidos Autónomo Confiable). Las bibliotecas para los servicios RADOS Block Device (RBD), RADOS Gateway y Ceph File System se utilizan con mayor frecuencia. De esta forma, los administradores pueden mantener sus dispositivos de almacenamiento dentro de un sistema unificado, lo que facilita la replicación y la protección de los datos.Las bibliotecas de software "Librados" proporcionan acceso en C, C++, Java, PHP y Python. RADOS Gateway también expone el almacén de objetos como una interfaz RESTful que puede presentarse como API nativas de Amazon S3 y OpenStack Swift.

Almacenamiento de bloques

Ceph puede proporcionar a sus clientes dispositivos de bloque con aprovisionamiento ligero. Cuando una aplicación escribe datos en Ceph mediante un dispositivo de bloque, Ceph distribuye y replica automáticamente los datos en todo el clúster. El dispositivo de bloque RADOS (RBD) de Ceph también se integra con máquinas virtuales basadas en kernel (KVM).El almacenamiento en bloque de Ceph puede implementarse en discos duros y/o SSD tradicionales, asociados con el almacenamiento en bloque de Ceph, para casos de uso como bases de datos, máquinas virtuales, análisis de datos, inteligencia artificial y aprendizaje automático. Los clientes de almacenamiento en bloque suelen requerir un alto rendimiento y un alto número de IOPS, por lo que las implementaciones de Ceph RBD utilizan cada vez más SSD con interfaces NVMe.

RBD se basa en el sistema de almacenamiento de objetos RADOS, base de Ceph, que proporciona la interfaz de Librados y el sistema de archivos CephFS. Dado que RBD se basa en Librados, hereda sus capacidades, incluyendo clones e instantáneas. Al distribuir volúmenes en franjas dentro del clúster, Ceph mejora el rendimiento de las imágenes de dispositivos de bloque grandes.

"Ceph-iSCSI" es una puerta de enlace que permite el acceso a almacenamiento en bloque distribuido de alta disponibilidad desde servidores o clientes Microsoft Windows y VMware vSphere compatibles con el protocolo iSCSI. Al usar ceph-iscsi en uno o más hosts de puerta de enlace iSCSI, las imágenes RBD de Ceph se convierten en unidades lógicas (LU) asociadas a destinos iSCSI, a los que se puede acceder con alta disponibilidad y balanceo de carga opcional.

Dado que la configuración de ceph-iscsi se almacena en el almacén de objetos Ceph RADOS, los hosts de la puerta de enlace de ceph-iscsi carecen de estado persistente y, por lo tanto, pueden reemplazarse, ampliarse o reducirse a voluntad. Como resultado, Ceph Storage permite a los clientes ejecutar una tecnología de almacenamiento empresarial verdaderamente distribuida, de alta disponibilidad, resiliente y autorreparable en hardware estándar y una plataforma completamente de código abierto.El dispositivo de bloque se puede virtualizar, proporcionando almacenamiento en bloque a máquinas virtuales, en plataformas de virtualización como OpenShift, OpenStack, Kubernetes, OpenNebula, Ganeti, Apache CloudStack y Proxmox Virtual Environment.

Almacenamiento de archivos

El sistema de archivos de Ceph (CephFS) se ejecuta sobre la misma base RADOS que los servicios de almacenamiento de objetos y dispositivos de bloque de Ceph. El servidor de metadatos (MDS) de CephFS proporciona un servicio que asigna los directorios y nombres de archivo del sistema de archivos a los objetos almacenados en clústeres RADOS. El clúster del servidor de metadatos puede expandirse o contraerse, y puede reequilibrar dinámicamente la clasificación de metadatos del sistema de archivos para distribuir los datos de forma uniforme entre los hosts del clúster. Esto garantiza un alto rendimiento y evita sobrecargas en hosts específicos dentro del clúster.Los clientes montan el sistema de archivos compatible con POSIX mediante un cliente de kernel de Linux. También está disponible un cliente más antiguo basado en FUSE. Los servidores se ejecutan como daemons Unix estándar.El almacenamiento de archivos de Ceph suele estar asociado con la recopilación de registros, la mensajería y el almacenamiento de archivos.

Dashboard

Ceph Dashboard landing page (2023)
Desde 2018, también existe un proyecto de interfaz de usuario web de Dashboard, que ayuda a gestionar el clúster. Está siendo desarrollado por la comunidad de Ceph en LGPL-3 y utiliza ceph-mgr, Python, Angular y Grafana. Su página de inicio se actualizó a principios de 2023.

Los paneles de control anteriores se desarrollaron, pero ya no están disponibles: Calamari (2013-2018), OpenAttic (2013-2019), VSM (2014-2016), Inkscope (2015-2016) y Ceph-Dash (2015-2017).

Crimson

Desde 2019, el proyecto Crimson ha estado reimplementando la ruta de datos OSD. El objetivo de Crimson es minimizar la latencia y la sobrecarga de la CPU. Los dispositivos e interfaces de almacenamiento modernos, como NVMe y 3D XPoint, se han vuelto mucho más rápidos que los discos duros e incluso los SSD SAS/SATA, pero el rendimiento de la CPU no ha seguido el mismo ritmo. Además, crimson-osd está diseñado para ser un reemplazo directo y retrocompatible de ceph-osd. Si bien Crimson puede funcionar con el backend de BlueStore (a través de AlienStore), también se está desarrollando una nueva implementación nativa de ObjectStore llamada SeaStore junto con CyanStore para fines de prueba. Una razón para crear SeaStore es que el soporte de transacciones en el backend de BlueStore lo proporciona RocksDB, que debe reimplementarse para lograr un mejor paralelismo.

Historia

Ceph fue creado por Sage Weil para su tesis doctoral, dirigida por el profesor Scott A. Brandt de la Escuela de Ingeniería Jack Baskin de la Universidad de California, Santa Cruz (UCSC) y patrocinada por el Programa de Simulación y Computación Avanzada (ASC), que incluye el Laboratorio Nacional de Los Álamos (LANL), los Laboratorios Nacionales Sandia (SNL) y el Laboratorio Nacional Lawrence Livermore (LLNL). La primera línea de código que formó parte de Ceph fue escrita por Sage Weil en 2004 durante una pasantía de verano en el LLNL, donde trabajó en la gestión escalable de metadatos de sistemas de archivos (hoy conocida como MDS de Ceph). En 2005, como parte de un proyecto de verano iniciado por Scott A. Brandt y dirigido por Carlos Maltzahn, Sage Weil creó un prototipo de sistema de archivos completamente funcional que adoptó el nombre de Ceph. Ceph debutó con Sage Weil en dos presentaciones en noviembre de 2006: una en USENIX OSDI 2006 y otra en SC'06.Tras su graduación en otoño de 2007, Weil continuó trabajando en Ceph a tiempo completo, y el equipo principal de desarrollo se expandió para incluir a Yehuda Sadeh Weinraub y Gregory Farnum. El 19 de marzo de 2010, Linus Torvalds integró el cliente de Ceph en la versión 2.6.34 del kernel de Linux, publicada el 16 de mayo de 2010. En 2012, Weil creó Inktank Storage para servicios profesionales y soporte técnico de Ceph.En abril de 2014, Red Hat adquirió Inktank, incorporando la mayor parte del desarrollo de Ceph internamente para convertirlo en una versión de producción para empresas con soporte (línea directa) y mantenimiento continuo (nuevas versiones).En octubre de 2015, se formó el Consejo Asesor de la Comunidad Ceph para ayudar a la comunidad a impulsar la tecnología de almacenamiento definido por software de código abierto. Este consejo asesor, fundado en 2015, incluye a miembros de la comunidad Ceph de organizaciones globales de TI comprometidas con el proyecto Ceph, incluyendo a personas de Red Hat, Intel, Canonical, CERN, Cisco, Fujitsu, SanDisk y SUSE.En noviembre de 2018, la Fundación Linux lanzó la Fundación Ceph como sucesora del Consejo Asesor de la Comunidad Ceph. Entre los miembros fundadores de la Fundación Ceph se encuentran Amihan, Canonical, China Mobile, DigitalOcean, Intel, OVH, ProphetStor Data Services, Red Hat, SoftIron, SUSE, Western Digital, XSKY Data Technology y ZTE.En marzo de 2021, SUSE discontinuó su producto Enterprise Storage que incorporaba Ceph en favor de Rancher's Longhorn, y el antiguo sitio web de Enterprise Storage se actualizó indicando que "SUSE ha reorientado sus esfuerzos de almacenamiento hacia la atención a nuestros clientes estratégicos de SUSE Enterprise Storage y ya no vende activamente SUSE Enterprise Storage".

Historia de la liberación

Historia de la liberación
Nombre Liberación Primera liberación Fin de
vida
Hitos
Argonaut Versión antigua, no mantenida: 0.48 3 de julio de 2012 Primer lanzamiento "estable"
Bobtail Versión antigua, no mantenida: 0,56 Enero 1, 2013
Cuttlefish Versión antigua, no mantenida: 0.61 7 de mayo de 2013 Ceph-deploy es estable
Dumpling Versión antigua, no mantenida: 0,677 Agosto 14, 2013 Mayo de 2015 namespace, region, monitoring REST API
Emperador Versión antigua, no mantenida: 0.72 9 de noviembre de 2013 Mayo de 2014 réplica multi-datacenter para RGW
Fuego Versión antigua, no mantenida: 0.80 7 de mayo de 2014 Abril 2016 codificación de borrado, revestimiento de caché, afinidad primaria, backend de OSD clave/valor (experimental), RGW independiente (experimental)
Giant Versión antigua, no mantenida: 0.87 29 de octubre de 2014 Abril de 2015
Hammer Versión antigua, no mantenida: 0.94 Abril 7, 2015 Agosto de 2017
Infernalis Versión antigua, no mantenida: 9.2.0 6 de noviembre de 2015 Abril 2016
Jewel Versión antigua, no mantenida: 10.2.0 Abril 21, 2016 2018-06-01 Stable CephFS, experimental OSD back end llamado BlueStore, los daemons ya no funcionan como el usuario root
Kraken Versión antigua, no mantenida: 11.2.0 20 de enero de 2017 2017-08-01 BlueStore es estable, EC para piscinas RBD
Luminoso Versión antigua, no mantenida: 12.2.0 Agosto 29, 2017 2020-03-01 pg-upmap balancer
Mimic Versión antigua, no mantenida: 13.2.0 Junio 1, 2018 2020-07-22 instantáneas son estables, La Bestia es estable, GUI oficial (Dashboard)
Nautilus Versión antigua, no mantenida: 14.2.0 19 de marzo de 2019 2021-06-01 réplica asincrónica, auto-retry de escritos fallidos debido a la remapping de defectos
Octopus Versión antigua, no mantenida: 15.2.0 23 de marzo de 2020 2022-06-01
Pacífico Versión antigua, no mantenida: 16.2.0 31 de marzo, 2021 2023-06-01
Quincy Versión antigua, no mantenida: 17.2.0 19 de abril, 2022 2024-06-01 auto-ajuste de min_alloc_size para medios novedosos
Reef Versión antigua, todavía mantenida: 18.2.0 3 de agosto de 2023 2025-08-01
Squid Última versión: 19.2.0 26 de septiembre de 2024 2026-09-19
Tentacle Versión futura: TBA TBA
Leyenda:
Versión antigua, no mantenida
Versión antigua, todavía mantenida
Última versión
Versión futura

Plataformas disponibles

Aunque fue desarrollado básicamente para Linux, Ceph también se ha portado parcialmente a la plataforma Windows. Está listo para producción en Windows Server 2016 (algunos comandos podrían no estar disponibles debido a la falta de implementación de sockets UNIX), Windows Server 2019 y Windows Server 2022, pero también se pueden realizar pruebas y desarrollo en Windows 10 y Windows 11. Se puede usar Ceph RBD y CephFS en Windows, pero OSD no es compatible con esta plataforma.También existe una implementación de Ceph en FreeBSD.

Etymology

El nombre "Ceph" es una abreviatura de "cefalópodo", una clase de moluscos que incluye calamares, sepias, nautiloides y pulpos. El nombre (resaltado por el logotipo) sugiere el comportamiento altamente similar de un pulpo y se eligió para asociar el sistema de archivos con "Sammy", la babosa banana mascota de la UCSC. Tanto los cefalópodos como las babosas banana son moluscos.

Véase también

  • BeeGFS
  • Sistema de archivos distribuido
  • Distribuidos sistemas de archivos paralelos tolerantes a la falla
  • Sistema de archivos Gfarm
  • GlusterFS
  • GPFS
  • Kubernetes
  • LizardFS
  • Lustre
  • MapR FS
  • Sistema de archivos Moose
  • OrangeFS
  • Parallel Virtual Sistema de archivos
  • Sistema de archivos de Quantcast
  • RozoFS
  • Almacenamiento definido por software
  • XtreemFS
  • ZFS
  • Comparación de sistemas de archivos distribuidos

Referencias

  1. ^ "Ceph Community Forms Advisory Board". 2015-10-28. Archivado desde el original en 2019-01-29. Retrieved 2016-01-20.
  2. ^ https://ceph.io/en/news/blog/2025/v19-2-1-squid-released/. Retrieved 19 de marzo 2025. {{cite web}}: Desaparecido o vacío |title= (Ayuda)
  3. ^ "Repositorio GitHub". GitHub.
  4. ^ a b "FreeBSD Informe trimestral de estado".
  5. ^ a b "Cef de instalación en Windows". Ceph. Retrieved 2 de julio 2023.
  6. ^ "LGPL2.1 archivo de licencia en las fuentes de Ceph". GitHub. 2014-10-24. Retrieved 2014-10-24.
  7. ^ Nicolas, Philippe (2016-07-15). "Los chicos de la historia: almacenamiento de objetos... desde el principio". El Registro.
  8. ^ Jeremy Andrews (2007-11-15). "Ceph Distributed Network File System". KernelTrap. Archivado desde el original en 2007-11-17. Retrieved 2007-11-15.
  9. ^ "Ceph Clusters". CERN. Archivado desde el original el 12 de noviembre de 2022. Retrieved 12 de noviembre 2022.
  10. ^ "Ceph Operations at CERN: Where Do We Go From Here? - Dan van der Ster & Teo Mouratidis, CERN". YouTube24 de mayo de 2019. Retrieved 12 de noviembre 2022.
  11. ^ Dorosz, Filip (15 de junio de 2020). "Viaje al almacenamiento de Ceph de próxima generación en OVHcloud con LXD". OVHcloud. Retrieved 12 de noviembre 2022.
  12. ^ "CephFS sistema de archivos distribuido". OVHcloud. Retrieved 12 de noviembre 2022.
  13. ^ "Ceph - Sistema de almacenamiento distribuido en OVH [en] - Bartłomiej Święcki". YouTube7 de abril de 2016. Retrieved 12 de noviembre 2022.
  14. ^ "200 Clusters vs 1 Admin - Bartosz Rabiega, OVH". YouTube24 de mayo de 2019. Retrieved 15 de noviembre 2022.
  15. ^ D'Atri, Anthony (31 de mayo de 2018). "Por qué elegimos a Ceph para construir almacenamiento de bloques". DigitalOcean. Retrieved 12 de noviembre 2022.
  16. ^ "Ceph Tech Talk: Ceph en DigitalOcean". YouTube7 de octubre de 2021. Retrieved 12 de noviembre 2022.
  17. ^ a b c M. Tim Jones (2010-06-04). "Ceph: A Linux petabyte-scale distributed file system" (PDF). IBM. Retrieved 2014-12-03.
  18. ^ "BlueStore". Ceph. Retrieved 2017-09-29.
  19. ^ "BlueStore Migration". Archivado desde el original en 2019-12-04. Retrieved 2020-04-12.
  20. ^ "Ceph Manager Daemon — Ceph Documentation". docs.ceph.com. Archivado desde el original el 6 de junio de 2018. Retrieved 2019-01-31. archivado junio 19, 2020, en la máquina Wayback
  21. ^ Jake Edge (2007-11-14). "El sistema de archivos Ceph". LWN.net.
  22. ^ Anthony D'Atri, Vaibhav Bhembre (2017-10-01). "Aprender a Ceph, segunda edición". Packt.
  23. ^ Sage Weil (2017-08-29). "v12.2.0 Luminous Released". Ceph Blog.
  24. ^ "Hard Disk and File System Recommendations". ceph.com. Archivado desde el original en 2017-07-14. Retrieved 2017-06-26.
  25. ^ "BlueStore Config Reference". Archivado desde el original el 20 de julio de 2019. Retrieved 12 de abril, 2020.
  26. ^ "10a Conferencia Internacional "Computing Distributed and Grid Technologies in Science and Education" (GRID'2023)". JINR (Indico). 2023-07-03. Retrieved 2023-08-09.
  27. ^ "Ceph Dashboard". Documentación de Ceph. Retrieved 11 de abril 2023.
  28. ^ Gómez, Pedro González (23 de febrero de 2023). "Introduciendo la nueva página de aterrizaje de Dashboard". Retrieved 11 de abril 2023.
  29. ^ "Operando al Ceph Dashboard: pasado, presente y futuro". YouTube22 de noviembre de 2022. Retrieved 11 de abril 2023.
  30. ^ Solo, Sam (18 de enero de 2021). "Crimson: evolución de Ceph para NVMe de alto rendimiento". Red Hat Tecnologías emergentes. Retrieved 12 de noviembre 2022.
  31. ^ Solo, Samuel (10 de noviembre de 2022). "¿Qué hay de nuevo con Crimson y Seastore?". YouTube. Retrieved 12 de noviembre 2022.
  32. ^ "Crimson: Next-generation Ceph OSD for Multi-core Scalability". Ceph blog7 de febrero de 2023. Retrieved 11 de abril 2023.
  33. ^ Sage Weil (2007-12-01). "Ceph: Almacenamiento distribuido fiable, escalable y de alto rendimiento" (PDF). Universidad de California, Santa Cruz. Archivado desde el original (PDF) on 2017-07-06. Retrieved 2017-03-11.
  34. ^ Gary Grider (2004-05-01). "La historia y la estrategia escalables de ASCI/DOD" (PDF). University of Minnesota. Retrieved 2019-07-17.
  35. ^ Gestión dinámica de metadatos para sistemas de archivos Petabyte-Scale, SA Weil, KT Pollack, SA Brandt, EL Miller, Proc. SC'04, Pittsburgh, PA, noviembre, 2004
  36. ^ "Ceph: Un sistema de archivos distribuidos de alto rendimiento", SA Weil, SA Brandt, EL Miller, DDE Long, C Maltzahn, Proc. OSDI, Seattle, WA, noviembre, 2006
  37. ^ "CRUSH: Colocación controlada, escalable, descentralizada de datos replicados", SA Weil, SA Brandt, EL Miller, DDE Long, C Maltzahn, SC'06, Tampa, FL, noviembre, 2006
  38. ^ Sage Weil (2010-02-19). "Client se fusionó por 2.6.34". Ceph.newdream.net. Archivado desde el original en 2010-03-23. Retrieved 2010-03-21.
  39. ^ Tim Stephens (2010-05-20). "Nueva versión de Linux OS incluye el sistema de archivos Ceph desarrollado en UCSC". news.ucsc.edu.
  40. ^ Bryan Bogensberger (2012-05-03). "Y todo viene juntos". Inktank Blog. Archivado desde el original el 2012-07-19. Retrieved 2012-07-10.
  41. ^ Joseph F. Kovar (10 de julio de 2012). "The 10 Coolest Storage Startups Of 2012 (So Far)". CRN. Retrieved 19 de julio, 2013.
  42. ^ Red Hat Inc (2014-04-30). "Red Hat to Acquire Inktank, Proveedor de Ceph". Red Hat. Retrieved 2014-08-19.
  43. ^ "Ceph Community Forms Advisory Board". 2015-10-28. Archivado desde el original en 2019-01-29. Retrieved 2016-01-20.
  44. ^ "La Fundación Linux lanza la Fundación Ceph para promover el almacenamiento de código abierto". 2018-11-12.
  45. ^ "SUSE dice tschüss al producto de almacenamiento empresarial basado en Ceph - es el Longhorn de Rancher de aquí en adelante".
  46. ^ "SUSE Enterprise Software-Defined Storage".
  47. ^ Ceph.io — v16.2.0 Pacific released
  48. ^ Ceph.io — v17.2.0 Quincy released
  49. ^ Flores, Laura (6 de agosto de 2023). "v18.2.0 Reef liberado". Ceph Blog. Retrieved 26 de agosto 2023.
  50. ^ "Libertad activa". docs.ceph.com. Retrieved 3 de octubre 2024.
  51. ^ Flores, Laura (26 de septiembre de 2024). "v19.2.0 Squid liberado". Ceph Blog. Retrieved 3 de octubre 2024.
  52. ^ "Libertad activa". docs.ceph.com. Retrieved 3 de octubre 2024.
  53. ^ "Ceph Developer Summit - Tentacle". ceph.io11 de agosto de 2024. Retrieved 3 de octubre 2024.
  54. ^ "Ceph para Windows". Cloudbase Solutions. Retrieved 2 de julio 2023.
  55. ^ Pilotti, Alessandro (4 mayo 2023). "Ceph en Windows". YouTube. Retrieved 2 de julio 2023.

Más lectura

  • M. Tim Jones (2010-05-04). "Ceph: A Linux petabyte-scale distributed file system". DesarrolladoresWorks > Linux > Biblioteca Técnica. Retrieved 2010-05-06.
  • Jeffrey B. Layton (2010-04-20). "Ceph: The Distributed File System Creature from the Object Lagoon". Linux Magazine. Archivado desde el original el 23 de abril de 2010. Retrieved 2010-04-24.
  • Carlos Maltzahn; Esteban Molina-Estolano; Amandeep Khurana; Alex J. Nelson; Scott A. Brandt; Sage Weil (agosto de 2010). "Ceph como una alternativa escalable al sistema de archivos distribuidos Hadoop". ;login:. 35 4). Retrieved 2012-03-09.
  • Martin Loschwitz (24 de abril de 2012). "The RADOS Object Store and Ceph Filesystem". HPC ADMIN Magazine. Retrieved 2012-04-25.
  • Sitio oficial
  • Estado del Cephalopod 2022 en YouTube
  • Estado del Cephalopod en YouTube (2023)
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save