Ceph |
Автор: admin Просмотров: 2307 Комментарии:
Добавлен: 31 января 2017
В вычислениях, Ceph - свободное хранилище объектов, которое сохраняет данные на одном распределенном компьютерном кластере и обеспечивает интерфейс уровня объекта, блока и файла. Основные цели Ceph - быть полностью распределенным без единой точки отказа, масштабируемой до уровня эксабайта и свободно доступным.
Ceph реплицирует данные и делает их отказоустойчивыми, используя обычное оборудование и не требуя поддержки специфического оборудования. Результатом дизайна является то, что система является как само-восстанавливающейся так и само-управляемой, нацеливаясь на минимизацию времени администрирования и другие затраты.
В реализации CephFS (файловая система) отсутствуют стандартные средства восстановления файловой системы, поэтому пользовательская документация Ceph не рекомендует хранить критические данные из-за отсутствия возможности аварийного восстановления и инструментов.
Монитиры кластера (ceph-mon) - отслеживают активные и сломанные ноды кластера
Серверы метаданных (ceph-mds) - сохраняют метаданные inode и каталогов
Устройства хранения объектов (ceph-osd) - действительно сохраняют содержимое файлов. Идеально, OSD сохраняют свои данные на локальной файловой системе btrfs, чтобы задействовать своё встроенное copy-on-write, хотя другие локальные файловые системы могут использоваться.
Шлюзы передачи репрезентативного состояния (RESTful) (ceph-rgw), которые раскрывают уровень хранения объектов как интерфейс совместим с Amazon S3 или OpenStack Swift API-ми
Они все полностью распределенными и могут работать на том же наборе серверов. Клиенты направления взаимодействуют со всеми ними.
Ceph делает striping индивидуальных файлов по многим нодах, чтобы достичь на большей пропускной способности, подобно тому как RAID0 распределяет полосами разделы по многим твердым дискам. Адаптивный баланс нагрузки поддерживается с помощью того, как часто доступаються к объектам, которые реплицировать на большинстве нод. На декабрь 2014, файловые системы которые рекомендованы для использования в производственных средах это ext4 (маленький масштаб) и XFS (развертывание большого масштаба), пока Btrfs и ZFS рекомендуется для непроизводственных сред.
Архитектурная диаграмма показывает связь между компонентами платформы хранения Ceph
Ceph внедряет распределено хранилище объектов. Программные библиотеки Ceph обеспечивают клиенськи программы прямым доступом к надежному автоматически распределенного хранения объектов (RADOS от англ. Reliable autonomic distributed object store), а также обеспечивает фундамент для некоторых особенностей Ceph, включая RADOS Block Device (RBD), RADOS Gateway и Ceph File System.
Программная библиотека librados обеспечивает доступ для C, C ++ , Java, PHP и Python.
Интерфейсы Ceph RBD с той же системой хранения объектов Ceph обеспечивают интерфейс librados и файловую систему CephFS, а также сохраняют образы блочных устройств как объекты. С тех пор как RBD базируется на librados, RBD следует возможности librados, включая снимки типа только чтение и возврат к снимкам. Благодаря разбрасыванию образов по кластеру, Ceph улучшает производительность чтения для больших образов блочных устройств.
Блочные устройства поддерживаются платформами виртуализации, включая Apache CloudStack, OpenStack, OpenNebula, Ganeti и Proxmox Virtual Environment. Эти интеграции позволяют администраторам использовать блочные устройства Ceph как хранилище для их виртуальных машин.
Клиенты монтируют POSIX-совместимую файловую систему используя клиенты ядра Линукс. 19 марта 2010, Linus Torvalds добавил Ceph клиент в ядро Линукс версии 2.6.34 которое вышло 16 марта 2010 Старейший FUSE-совместимый клиент также доступен. Сервера работают как обычный Unix демон.
После его выпуска осенью 2007, Weil продолжил работать над Ceph полностью, основная команда разработки была пополнена Yehuda Sadeh Weinraub и Gregory Farnum. В 2012 г., Weil создал Inktank Storage для профессиональных сервисов и поддержки Ceph.
В апреле 2014, Red Hat купил Inktank тем самым принеся важность развития Ceph development in-house.
В октябре 2015 был сформирован Ceph Community Advisory Board чтобы ассистировать сообщество в направлении программно-определенной технологии хранилища с открытым кодом. Устав рекомендательной совета включает членов глобальнии IT организаций, которые внесилы проект Ceph, включая лиц от Canonical, CERN, Cisco, Fujitsu, Intel, Red Hat, SanDisk, and SUSE.
Argonaut
3 июля 2012, группа разработчиков Ceph выпустила Argonaut, первый важный «стабильный» релиз Ceph. Этот релиз получит исправления стабильности и только обновления производительности, новые возможности будут запланированы на будущие релизы.
Bobtail (v0.56)
1 января 2013, группа разработчиков Ceph выпустила Bobtail, второй важный стабильный релиз Ceph. Этот релиз в основном был сфокусирован на стабильности, производительности, да обновленности с предыдущего релиза Argonaut, стабильных серий (v0.48.x).
Cuttlefish (v0.61)
7 мая 2013, группа разработчиков Ceph выпустила Cuttlefish, третий мажорный стабильный релиз Ceph. Этот релиз включал численность возможностей и улучшения производительности а также был первым стабильным релизом для средства развертывания "ceph-deploy" вместо предыдущего "mkcephfs".
Dumpling (v0.67)
14 августа 2013, группа разработчиков Ceph выпустила Dumpling, четвертый мажорный стабильный релиз Ceph. Этот релиз включал первый шаг в глобальные namespace и поддержку регионов, REST API для мониторинга и функций управления, улучшена поддержка Red Hat Enterprise Linux derivatives (RHEL).
Emperor (v0.72)
9 ноября 2013, группа разработчиков Ceph выпустила Emperor, пятый мажорный стабильный релиз Ceph. Этот релиз принес несколько новых возможностей включая репликацию между датацентрами для radosgw, улучшенную удобство и простоту использования, и также много инкрементальной производительности и внутренней работы по рефакторинга для поддержки новых возможностей Firefly.
Firefly (v0.80)
7 мая 2014, группа разработчиков Ceph выпустила Firefly, шестой мажорный стабильный релиз Ceph. Этот релиз принес несколько новых возможностей включая кодирование вытирания, многоуровневый кэш, первичная родство, ключ / значение OSD бэкенд (ЭКСПЕРИМЕНТАЛЬНЫЙ), автономный radosgw (ЭКСПЕРИМЕНТАЛЬНЫЙ).
Giant (v0.87)
29 октября 2014, группа разработчиков Ceph выпустила Giant, седьмой мажорный стабильный релиз Ceph.
Hammer (v0.94)
7 апреля 2015, группа разработчиков Ceph выпустила Hammer, восьмой мажорный стабильный релиз Ceph. Формировал базу следующей длительной стабильной серии. Предназначен вытеснить v0.80.x Firefly.
Infernalis (v9.2.0)
On November 6, 2015, группа разработчиков Ceph выпустила Infernalis, девятый мажорный стабильный релиз Ceph. it will be the foundation for the next stable series . Включает три основных изменения после v0.94.x Hammer, и процесс обновления не тривиальный.
https://uk.wikipedia.org/wiki/Ceph_(програмне_забезпечення)
------------------------
ТРИО теплый пол отзыв
Заработок на сокращении ссылок
Earnings on reducing links
Код PHP на HTML сайты
Я уже пять лет не занимаюсь сайтом, так как работаю по 12 часов. Образование у меня среднее, и по этому нет нормальной работы. Если бы сайт приносил по 100$ в месяц, я бы добавлял по 50 статей каждый месяц. Если отправите пожертвования, я оставлю Ваши имена и фамилии в списке благодетелей !
Bitcoin: 1AP3JCZVFpHzZwcAyNztbrbFFiLdnKbY1j
Litecoin LfHXHz4k6LnDNNvCodd5pj9aW4Qk67KoUD
Dogecoin D9HHvKNFZxRhjtoh6uZYjMjgcZewwiUME9
Есть также другие кошельки.
Ceph реплицирует данные и делает их отказоустойчивыми, используя обычное оборудование и не требуя поддержки специфического оборудования. Результатом дизайна является то, что система является как само-восстанавливающейся так и само-управляемой, нацеливаясь на минимизацию времени администрирования и другие затраты.
В реализации CephFS (файловая система) отсутствуют стандартные средства восстановления файловой системы, поэтому пользовательская документация Ceph не рекомендует хранить критические данные из-за отсутствия возможности аварийного восстановления и инструментов.
Высокоуровневый обзор внутренней организации Ceph
Ceph использует четыре различные вида демонов:Монитиры кластера (ceph-mon) - отслеживают активные и сломанные ноды кластера
Серверы метаданных (ceph-mds) - сохраняют метаданные inode и каталогов
Устройства хранения объектов (ceph-osd) - действительно сохраняют содержимое файлов. Идеально, OSD сохраняют свои данные на локальной файловой системе btrfs, чтобы задействовать своё встроенное copy-on-write, хотя другие локальные файловые системы могут использоваться.
Шлюзы передачи репрезентативного состояния (RESTful) (ceph-rgw), которые раскрывают уровень хранения объектов как интерфейс совместим с Amazon S3 или OpenStack Swift API-ми
Они все полностью распределенными и могут работать на том же наборе серверов. Клиенты направления взаимодействуют со всеми ними.
Ceph делает striping индивидуальных файлов по многим нодах, чтобы достичь на большей пропускной способности, подобно тому как RAID0 распределяет полосами разделы по многим твердым дискам. Адаптивный баланс нагрузки поддерживается с помощью того, как часто доступаються к объектам, которые реплицировать на большинстве нод. На декабрь 2014, файловые системы которые рекомендованы для использования в производственных средах это ext4 (маленький масштаб) и XFS (развертывание большого масштаба), пока Btrfs и ZFS рекомендуется для непроизводственных сред.
Хранилище объектов
Архитектурная диаграмма показывает связь между компонентами платформы хранения Ceph
Ceph внедряет распределено хранилище объектов. Программные библиотеки Ceph обеспечивают клиенськи программы прямым доступом к надежному автоматически распределенного хранения объектов (RADOS от англ. Reliable autonomic distributed object store), а также обеспечивает фундамент для некоторых особенностей Ceph, включая RADOS Block Device (RBD), RADOS Gateway и Ceph File System.
Программная библиотека librados обеспечивает доступ для C, C ++ , Java, PHP и Python.
Блочное хранилище
Система хранения объектов Ceph позволяет пользователям монтировать Ceph как тонко подготовленное блочный устройство. Когда приложение пишет данные на Ceph используя блочный устройство, Ceph автоматически разбрасывает и реплицирует данные по всему кластеру. Блочное устройство Ceph (RBD) (от англ. RADOS Block Device ) также интегрируется с Kernel-based Virtual Machines (KVMs).Интерфейсы Ceph RBD с той же системой хранения объектов Ceph обеспечивают интерфейс librados и файловую систему CephFS, а также сохраняют образы блочных устройств как объекты. С тех пор как RBD базируется на librados, RBD следует возможности librados, включая снимки типа только чтение и возврат к снимкам. Благодаря разбрасыванию образов по кластеру, Ceph улучшает производительность чтения для больших образов блочных устройств.
Блочные устройства поддерживаются платформами виртуализации, включая Apache CloudStack, OpenStack, OpenNebula, Ganeti и Proxmox Virtual Environment. Эти интеграции позволяют администраторам использовать блочные устройства Ceph как хранилище для их виртуальных машин.
Файловая система
Файловая система Ceph (CephFS) работает на базе той же самой системы хранения объектов, которая обеспечивает интерфейсы хранилища объектов и блочных устройств. Кластер сервера метаданных Ceph обеспечивает сервис который картографирует директории и имена файловой системы к объектам, которые хранятся в пределах RADOS кластера. Кластер сервера метаданных может расширять или именовывая файловую систему, а также он может динамически ее разбалансировать, чтобы распределять данные равномерно по хостах кластера. Это гарантирует высокое быстродействие и предупреждает большие нагрузки на конкретные хосты кластера.Клиенты монтируют POSIX-совместимую файловую систему используя клиенты ядра Линукс. 19 марта 2010, Linus Torvalds добавил Ceph клиент в ядро Линукс версии 2.6.34 которое вышло 16 марта 2010 Старейший FUSE-совместимый клиент также доступен. Сервера работают как обычный Unix демон.
История
Ceph был создан Sage-ем Weil-ом (разработчиком концепта Webring и соучредителем DreamHost) для своей дипломной работы, которая была рекомендована Профессором Scott A. Brandt в Jack Baskin School of Engineering при University of California, Santa Cruz и основана United States Department of Energy (DOE) и National Nuclear Security Administration (NNSA), при участии Lawrence Livermore National Laboratory (LLNL), Los Alamos National Laboratory (LANL) и Sandia National Laboratories (SNL).После его выпуска осенью 2007, Weil продолжил работать над Ceph полностью, основная команда разработки была пополнена Yehuda Sadeh Weinraub и Gregory Farnum. В 2012 г., Weil создал Inktank Storage для профессиональных сервисов и поддержки Ceph.
В апреле 2014, Red Hat купил Inktank тем самым принеся важность развития Ceph development in-house.
В октябре 2015 был сформирован Ceph Community Advisory Board чтобы ассистировать сообщество в направлении программно-определенной технологии хранилища с открытым кодом. Устав рекомендательной совета включает членов глобальнии IT организаций, которые внесилы проект Ceph, включая лиц от Canonical, CERN, Cisco, Fujitsu, Intel, Red Hat, SanDisk, and SUSE.
Argonaut
3 июля 2012, группа разработчиков Ceph выпустила Argonaut, первый важный «стабильный» релиз Ceph. Этот релиз получит исправления стабильности и только обновления производительности, новые возможности будут запланированы на будущие релизы.
Bobtail (v0.56)
1 января 2013, группа разработчиков Ceph выпустила Bobtail, второй важный стабильный релиз Ceph. Этот релиз в основном был сфокусирован на стабильности, производительности, да обновленности с предыдущего релиза Argonaut, стабильных серий (v0.48.x).
Cuttlefish (v0.61)
7 мая 2013, группа разработчиков Ceph выпустила Cuttlefish, третий мажорный стабильный релиз Ceph. Этот релиз включал численность возможностей и улучшения производительности а также был первым стабильным релизом для средства развертывания "ceph-deploy" вместо предыдущего "mkcephfs".
Dumpling (v0.67)
14 августа 2013, группа разработчиков Ceph выпустила Dumpling, четвертый мажорный стабильный релиз Ceph. Этот релиз включал первый шаг в глобальные namespace и поддержку регионов, REST API для мониторинга и функций управления, улучшена поддержка Red Hat Enterprise Linux derivatives (RHEL).
Emperor (v0.72)
9 ноября 2013, группа разработчиков Ceph выпустила Emperor, пятый мажорный стабильный релиз Ceph. Этот релиз принес несколько новых возможностей включая репликацию между датацентрами для radosgw, улучшенную удобство и простоту использования, и также много инкрементальной производительности и внутренней работы по рефакторинга для поддержки новых возможностей Firefly.
Firefly (v0.80)
7 мая 2014, группа разработчиков Ceph выпустила Firefly, шестой мажорный стабильный релиз Ceph. Этот релиз принес несколько новых возможностей включая кодирование вытирания, многоуровневый кэш, первичная родство, ключ / значение OSD бэкенд (ЭКСПЕРИМЕНТАЛЬНЫЙ), автономный radosgw (ЭКСПЕРИМЕНТАЛЬНЫЙ).
Giant (v0.87)
29 октября 2014, группа разработчиков Ceph выпустила Giant, седьмой мажорный стабильный релиз Ceph.
Hammer (v0.94)
7 апреля 2015, группа разработчиков Ceph выпустила Hammer, восьмой мажорный стабильный релиз Ceph. Формировал базу следующей длительной стабильной серии. Предназначен вытеснить v0.80.x Firefly.
Infernalis (v9.2.0)
On November 6, 2015, группа разработчиков Ceph выпустила Infernalis, девятый мажорный стабильный релиз Ceph. it will be the foundation for the next stable series . Включает три основных изменения после v0.94.x Hammer, и процесс обновления не тривиальный.
Этимология
Название «Ceph» - распространенное прозвище домашних осьминогов и происходит от головоногих , класс моллюски, и в конце концов с древнегреческой κεφαλή ( ke-pha- lee ), значение «голова» и πόδι ( po -dhi ), значение «нога». Название (подчеркнуты логотип) предполагает высокую параллельную поведение осьминога и была выбрана для соединения файловой системы с талисманом UCSC, a banana slug называется «Sammy».https://uk.wikipedia.org/wiki/Ceph_(програмне_забезпечення)
------------------------
ТРИО теплый пол отзыв
Заработок на сокращении ссылок
Earnings on reducing links
Код PHP на HTML сайты
Я уже пять лет не занимаюсь сайтом, так как работаю по 12 часов. Образование у меня среднее, и по этому нет нормальной работы. Если бы сайт приносил по 100$ в месяц, я бы добавлял по 50 статей каждый месяц. Если отправите пожертвования, я оставлю Ваши имена и фамилии в списке благодетелей !
Bitcoin: 1AP3JCZVFpHzZwcAyNztbrbFFiLdnKbY1j
Litecoin LfHXHz4k6LnDNNvCodd5pj9aW4Qk67KoUD
Dogecoin D9HHvKNFZxRhjtoh6uZYjMjgcZewwiUME9
Есть также другие кошельки.
Категория: Хранение данных
Комментарии |