forked from dlang/cdcdb
Compare commits
3 commits
| Author | SHA1 | Date | |
|---|---|---|---|
| 872e29cba1 | |||
| c9623f87e8 | |||
| 48a9c39caa |
20 changed files with 815 additions and 1297 deletions
2
.gitignore
vendored
2
.gitignore
vendored
|
|
@ -15,4 +15,4 @@ cdcdb-test-*
|
||||||
*.obj
|
*.obj
|
||||||
*.lst
|
*.lst
|
||||||
bin
|
bin
|
||||||
/lib
|
lib
|
||||||
|
|
|
||||||
25
CHANGELOG.md
25
CHANGELOG.md
|
|
@ -1,13 +1,18 @@
|
||||||
# Changelog
|
# Changelog
|
||||||
|
|
||||||
## [0.1.0] — 2025-09-14
|
## [0.1.1] - 2025-09-14
|
||||||
### Added
|
### Added
|
||||||
- Библиотека для хранения и управления снимками данных на базе SQLite с контентно-зависимым разбиением (FastCDC).
|
- Table `labels` for snapshot labels.
|
||||||
- Дедупликация по SHA-256 чанков, опциональная компрессия Zstd.
|
### Fixed
|
||||||
- Сквозная проверка целостности: хеш каждого чанка и итогового файла.
|
- Improved data integrity with label normalization.
|
||||||
- Поддержка транзакций (WAL), ограничения целостности и триггеры в БД.
|
|
||||||
- Высокоуровневый API:
|
## [0.1.0] — 2025-09-13
|
||||||
- `Storage`: `newSnapshot`, `getSnapshots`, `getSnapshot`, `removeSnapshots`, `removeSnapshot`, `setupCDC`, `getVersion`.
|
### Added
|
||||||
- `Snapshot`: `data()` (возврат буфера) и потоковый `data(void delegate(const(ubyte)[]))`, `remove()`, свойства (`id`, `file`, `created`, `length`, `sha256`, `status`, `description`, `algoMin`, `algoNormal`, `algoMax`, `maskS`, `maskL`, `uid`, `ruid`, `uidName`, `ruidName`, `process`, `isReady`, `isPending`).
|
- SQLite-backed snapshot library with content-defined chunking (FastCDC).
|
||||||
- `Context`: структура для передачи UID, RUID, имён пользователей и процесса при создании снимка.
|
- Deduplication by SHA-256 of chunks; optional Zstd compression.
|
||||||
- Инструмент для генерации Gear-таблицы для FastCDC (`tools/gen.d`).
|
- End-to-end integrity checks: per-chunk hash and final file hash.
|
||||||
|
- Transactions (WAL), basic integrity constraints, and triggers.
|
||||||
|
- High-level API:
|
||||||
|
- `Storage`: `newSnapshot`, `getSnapshots`, `getSnapshot`, `removeSnapshots`, `setupCDC`, `getVersion`.
|
||||||
|
- `Snapshot`: `data()` (buffered) and streaming `data(void delegate(const(ubyte)[]))`, `remove()`, properties (`id`, `label`, `created`, `length`, `sha256`, `status`, `description`).
|
||||||
|
- Tool to generate a Gear table for FastCDC (`tools/gen.d`).
|
||||||
|
|
|
||||||
18
CHANGELOG.ru.md
Normal file
18
CHANGELOG.ru.md
Normal file
|
|
@ -0,0 +1,18 @@
|
||||||
|
# Changelog
|
||||||
|
|
||||||
|
## [0.1.1] - 2025-09-14
|
||||||
|
### Added
|
||||||
|
- Таблица `labels` для меток снимков.
|
||||||
|
### Fixed
|
||||||
|
- Улучшена целостность данных при нормализации меток.
|
||||||
|
|
||||||
|
## [0.1.0] - 2025-09-13
|
||||||
|
### Added
|
||||||
|
- Библиотека для снимков данных на базе SQLite с контентно-зависимым разбиением (FastCDC).
|
||||||
|
- Дедупликация по SHA-256 чанков, опциональная компрессия Zstd.
|
||||||
|
- Сквозная проверка целостности: хеш каждого чанка и итогового файла.
|
||||||
|
- Транзакции (WAL), базовые ограничения целостности и триггеры.
|
||||||
|
- Высокоуровневый API:
|
||||||
|
- `Storage`: `newSnapshot`, `getSnapshots`, `getSnapshot`, `removeSnapshots`, `setupCDC`, `getVersion`.
|
||||||
|
- `Snapshot`: `data()` (буфер) и потоковый `data(void delegate(const(ubyte)[]))`, `remove()`, свойства (`id`, `label`, `created`, `length`, `sha256`, `status`, `description`).
|
||||||
|
- Инструмент для генерации Gear-таблицы для FastCDC (`tools/gen.d`).
|
||||||
82
README.md
82
README.md
|
|
@ -1,42 +1,66 @@
|
||||||
# cdcdb
|
# cdcdb
|
||||||
|
|
||||||
Библиотека для версионирования и хранения данных в SQLite с опорой на content-defined chunking (CDC). Алгоритм **FastCDC** используется для разбиения входного потока на чанки переменного размера, что обеспечивает эффективную дедупликацию и экономию места. Поддерживаются опциональное сжатие **Zstd**, транзакции и проверка целостности на основе **SHA-256**. Дополнительно фиксируется контекст выполнения при создании снимков (UID, RUID, процесс). Основные сценарии применения — резервное копирование и контроль версий файлов.
|
A library for storing and managing snapshots of textual data in an SQLite database. It uses content-defined chunking (CDC) based on the FastCDC algorithm to split data into variable-size chunks for efficient deduplication. Supports optional Zstd compression, transactions, and end-to-end integrity verification via SHA-256. Primary use cases: backups and versioning of text files while minimizing storage footprint.
|
||||||
|
|
||||||
## Алгоритм FastCDC
|
## FastCDC algorithm
|
||||||
**FastCDC** — это алгоритм разделения данных на чанки переменной длины, основанный на скользящем хэшировании содержимого. Он использует таблицу **Gear** для вычисления "отпечатков" данных и выбирает точки разреза с учётом минимального, целевого и максимального размеров чанка. Такой подход позволяет эффективно выявлять изменения и сохранять только уникальные части данных.
|
FastCDC splits data into variable-size chunks using content hashing. A Gear table is used to compute rolling “fingerprints” and choose cut points while respecting minimum, target, and maximum chunk sizes. This efficiently detects changes and stores only unique chunks, reducing storage usage.
|
||||||
|
|
||||||
## Архитектура и основные компоненты
|
## Core classes
|
||||||
|
|
||||||
Библиотека разделена на несколько уровней:
|
### Storage
|
||||||
|
High-level API for the SQLite store and snapshot management.
|
||||||
|
|
||||||
- **Storage** — фасад для работы с БД SQLite. Отвечает за разбиение данных (FastCDC), сохранение/удаление снимков, управление блобами и транзакциями.
|
- **Constructor**: Initializes a connection to SQLite.
|
||||||
- **Snapshot** — объект-ссылка на конкретный снимок. Предоставляет доступ к данным (буфером или потоково), а также к метаданным и операциям удаления.
|
- **Methods**:
|
||||||
- **Context** — структура с параметрами окружения (UID, RUID, имена пользователей, процесс), передаваемыми при создании снимка.
|
- `newSnapshot`: Creates a snapshot. Returns a `Snapshot` object or `null` if the data matches the latest snapshot.
|
||||||
|
- `getSnapshots`: Returns a list of snapshots (all, or filtered by label). Returns an array of `Snapshot`.
|
||||||
|
- `getSnapshot`: Fetches a snapshot by ID. Returns a `Snapshot`.
|
||||||
|
- `setupCDC`: Configures CDC splitting parameters. Returns nothing.
|
||||||
|
- `removeSnapshots`: Deletes snapshots by label, ID, or a `Snapshot` object. Returns the number of deleted snapshots (for label) or `true`/`false` (for ID or object).
|
||||||
|
- `getVersion`: Returns the library version string.
|
||||||
|
|
||||||
## Пример использования
|
### Snapshot
|
||||||
|
Work with an individual snapshot.
|
||||||
|
|
||||||
|
- **Constructor**: Creates a snapshot handle by its ID.
|
||||||
|
- **Methods**:
|
||||||
|
- `data`: Restores full snapshot data. Returns a byte array (`ubyte[]`).
|
||||||
|
- `data`: Streams restored data via a delegate sink. Returns nothing.
|
||||||
|
- `remove`: Deletes the snapshot from the database. Returns `true` on success, otherwise `false`.
|
||||||
|
|
||||||
|
- **Properties**:
|
||||||
|
- `id`: Snapshot ID (`long`).
|
||||||
|
- `label`: Snapshot label (`string`).
|
||||||
|
- `created`: Creation timestamp (UTC, `DateTime`).
|
||||||
|
- `length`: Original data length (`long`).
|
||||||
|
- `sha256`: Data SHA-256 hash (`ubyte[32]`).
|
||||||
|
- `status`: Snapshot status (`"pending"` or `"ready"`).
|
||||||
|
- `description`: Snapshot description (`string`).
|
||||||
|
|
||||||
|
## Example
|
||||||
```d
|
```d
|
||||||
import cdcdb;
|
import cdcdb;
|
||||||
|
|
||||||
import std.stdio : writeln, File;
|
import std.stdio : writeln, File;
|
||||||
|
import std.file : exists, remove;
|
||||||
|
|
||||||
void main()
|
void main()
|
||||||
{
|
{
|
||||||
|
// Create DB
|
||||||
string dbPath = "example.db";
|
string dbPath = "example.db";
|
||||||
|
|
||||||
// Storage с Zstd-сжатием
|
// Initialize Storage with Zstd compression
|
||||||
auto storage = new Storage(dbPath, true, 22);
|
auto storage = new Storage(dbPath, true, 22);
|
||||||
|
|
||||||
// Контекст
|
// Create a snapshot
|
||||||
Context ctx = Context(1000, 1000, "user", "user", "example");
|
|
||||||
|
|
||||||
// Новый снимок
|
|
||||||
ubyte[] data = cast(ubyte[]) "Hello, cdcdb!".dup;
|
ubyte[] data = cast(ubyte[]) "Hello, cdcdb!".dup;
|
||||||
auto snap = storage.newSnapshot("example_file", data, ctx, "Версия 1.0");
|
auto snap = storage.newSnapshot("example_file", data, "Version 1.0");
|
||||||
if (snap)
|
if (snap)
|
||||||
{
|
{
|
||||||
writeln("Создан снимок: ID=", snap.id, ", Файл=", snap.file);
|
writeln("Snapshot created: ID=", snap.id, ", Label=", snap.label);
|
||||||
}
|
}
|
||||||
|
|
||||||
// Восстановление через потоковую запись
|
// Restore data
|
||||||
auto snapshots = storage.getSnapshots("example_file");
|
auto snapshots = storage.getSnapshots("example_file");
|
||||||
if (snapshots.length > 0)
|
if (snapshots.length > 0)
|
||||||
{
|
{
|
||||||
|
|
@ -44,25 +68,35 @@ void main()
|
||||||
File outFile = File("restored.txt", "wb");
|
File outFile = File("restored.txt", "wb");
|
||||||
lastSnap.data((const(ubyte)[] chunk) => outFile.rawWrite(chunk));
|
lastSnap.data((const(ubyte)[] chunk) => outFile.rawWrite(chunk));
|
||||||
outFile.close();
|
outFile.close();
|
||||||
writeln("Данные восстановлены в restored.txt");
|
writeln("Data restored to restored.txt");
|
||||||
}
|
}
|
||||||
|
|
||||||
// Удаление
|
// Delete snapshots
|
||||||
long deleted = storage.removeSnapshots("example_file");
|
long deleted = storage.removeSnapshots("example_file");
|
||||||
writeln("Удалено снимков: ", deleted);
|
writeln("Deleted snapshots: ", deleted);
|
||||||
}
|
}
|
||||||
```
|
```
|
||||||
|
|
||||||
## Инструменты
|
## Tools
|
||||||
|
|
||||||
В директории `tools` есть скрипт на D для генерации таблицы Gear, используемой FastCDC.
|
The `tools` directory contains a small D script for generating a Gear table used by FastCDC. It lets you build custom hash tables to tune splitting behavior. To generate a new table:
|
||||||
Чтобы создать новую таблицу:
|
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
chmod +x ./tools/gen.d
|
chmod +x ./tools/gen.d
|
||||||
./tools/gen.d > ./source/gear.d
|
./tools/gen.d > ./source/gear.d
|
||||||
```
|
```
|
||||||
|
|
||||||
## Лицензия
|
## Installation
|
||||||
|
|
||||||
|
* **In `dub.json`**:
|
||||||
|
|
||||||
|
```json
|
||||||
|
"dependencies": {
|
||||||
|
"cdcdb": "~>0.1"
|
||||||
|
}
|
||||||
|
```
|
||||||
|
* **Build**: `dub build`.
|
||||||
|
|
||||||
|
## License
|
||||||
|
|
||||||
Boost Software License 1.0 (BSL-1.0).
|
Boost Software License 1.0 (BSL-1.0).
|
||||||
|
|
|
||||||
98
README.ru.md
Normal file
98
README.ru.md
Normal file
|
|
@ -0,0 +1,98 @@
|
||||||
|
# cdcdb
|
||||||
|
|
||||||
|
Библиотека для хранения и управления снимками текстовых данных в базе SQLite. Использует механизм content-defined chunking (CDC) на основе алгоритма FastCDC для разделения данных на чанки переменного размера, что обеспечивает эффективную дедупликацию. Поддерживает опциональную компрессию Zstd, транзакции и проверку целостности данных через SHA-256. Основное применение — резервное копирование и версионирование текстовых файлов с минимизацией занимаемого пространства.
|
||||||
|
|
||||||
|
## Алгоритм FastCDC
|
||||||
|
FastCDC — это алгоритм разделения данных на чанки переменного размера, основанный на хэшировании содержимого. Он использует таблицу Gear для вычисления "отпечатков" данных, определяя точки разделения с учетом минимального, целевого и максимального размеров чанка. Это позволяет эффективно выявлять изменения в данных и хранить только уникальные чанки, снижая объем хранилища.
|
||||||
|
|
||||||
|
## Основные классы
|
||||||
|
|
||||||
|
### Storage
|
||||||
|
Класс для работы с базой SQLite и управления снимками.
|
||||||
|
|
||||||
|
- **Конструктор**: Инициализирует подключение к базе SQLite.
|
||||||
|
- **Методы**:
|
||||||
|
- `newSnapshot`: Создает снимок данных. Возвращает объект `Snapshot` или `null`, если данные совпадают с последним снимком.
|
||||||
|
- `getSnapshots`: Получает список снимков (все или по метке). Возвращает массив объектов `Snapshot`.
|
||||||
|
- `getSnapshot`: Получает снимок по ID. Возвращает объект `Snapshot`.
|
||||||
|
- `setupCDC`: Настраивает параметры разделения данных CDC. Ничего не возвращает.
|
||||||
|
- `removeSnapshots`: Удаляет снимки по метке, ID или объекту Snapshot. Возвращает количество удаленных снимков (для метки) или `true`/`false` (для ID или объекта).
|
||||||
|
- `getVersion`: Возвращает строку с версией библиотеки.
|
||||||
|
|
||||||
|
### Snapshot
|
||||||
|
Класс для работы с отдельным снимком данных.
|
||||||
|
|
||||||
|
- **Конструктор**: Создает объект снимка для работы с данными по его ID.
|
||||||
|
- **Методы**:
|
||||||
|
- `data`: Извлекает полные данные снимка. Возвращает массив байтов (`ubyte[]`).
|
||||||
|
- `data`: Извлекает данные снимка потоково через делегат. Ничего не возвращает.
|
||||||
|
- `remove`: Удаляет снимок из базы. Возвращает `true` при успешном удалении, иначе `false`.
|
||||||
|
|
||||||
|
- **Свойства**:
|
||||||
|
- `id`: ID снимка (long).
|
||||||
|
- `label`: Метка снимка (string).
|
||||||
|
- `created`: Временная метка создания (UTC, `DateTime`).
|
||||||
|
- `length`: Длина исходных данных (long).
|
||||||
|
- `sha256`: Хэш SHA-256 данных (ubyte[32]).
|
||||||
|
- `status`: Статус снимка ("pending" или "ready").
|
||||||
|
- `description`: Описание снимка (string).
|
||||||
|
|
||||||
|
## Пример использования
|
||||||
|
```d
|
||||||
|
import cdcdb;
|
||||||
|
|
||||||
|
import std.stdio : writeln, File;
|
||||||
|
import std.file : exists, remove;
|
||||||
|
|
||||||
|
void main()
|
||||||
|
{
|
||||||
|
// Создаем базу
|
||||||
|
string dbPath = "example.db";
|
||||||
|
|
||||||
|
// Инициализация Storage с компрессией Zstd
|
||||||
|
auto storage = new Storage(dbPath, true, 22);
|
||||||
|
|
||||||
|
// Создание снимка
|
||||||
|
ubyte[] data = cast(ubyte[]) "Hello, cdcdb!".dup;
|
||||||
|
auto snap = storage.newSnapshot("example_file", data, "Версия 1.0");
|
||||||
|
if (snap)
|
||||||
|
{
|
||||||
|
writeln("Создан снимок: ID=", snap.id, ", Метка=", snap.label);
|
||||||
|
}
|
||||||
|
|
||||||
|
// Восстановление данных
|
||||||
|
auto snapshots = storage.getSnapshots("example_file");
|
||||||
|
if (snapshots.length > 0)
|
||||||
|
{
|
||||||
|
auto lastSnap = snapshots[0];
|
||||||
|
File outFile = File("restored.txt", "wb");
|
||||||
|
lastSnap.data((const(ubyte)[] chunk) => outFile.rawWrite(chunk));
|
||||||
|
outFile.close();
|
||||||
|
writeln("Данные восстановлены в restored.txt");
|
||||||
|
}
|
||||||
|
|
||||||
|
// Удаление снимков
|
||||||
|
long deleted = storage.removeSnapshots("example_file");
|
||||||
|
writeln("Удалено снимков: ", deleted);
|
||||||
|
}
|
||||||
|
```
|
||||||
|
|
||||||
|
## Инструменты
|
||||||
|
В директории `tools` находится скрипт на D для создания таблицы Gear, используемой в алгоритме FastCDC. Он позволяет генерировать пользовательские таблицы хэшей для настройки разделения данных. Для создания новой таблицы выполните:
|
||||||
|
|
||||||
|
```bash
|
||||||
|
chmod +x ./tools/gen.d
|
||||||
|
./tools/gen.d > ./source/gear.d
|
||||||
|
```
|
||||||
|
|
||||||
|
## Установка
|
||||||
|
- **В `dub.json`**:
|
||||||
|
```json
|
||||||
|
"dependencies": {
|
||||||
|
"cdcdb": "~>0.1"
|
||||||
|
}
|
||||||
|
```
|
||||||
|
- **Сборка**: `dub build`.
|
||||||
|
|
||||||
|
## Лицензия
|
||||||
|
Boost Software License 1.0 (BSL-1.0).
|
||||||
2
dub.json
2
dub.json
|
|
@ -7,7 +7,7 @@
|
||||||
"license": "BSL-1.0",
|
"license": "BSL-1.0",
|
||||||
"name": "cdcdb",
|
"name": "cdcdb",
|
||||||
"dependencies": {
|
"dependencies": {
|
||||||
"d2sqlite3": "~>1.0.0",
|
"arsd-official:sqlite": "~>12.0.0",
|
||||||
"zstd": "~>0.2.1"
|
"zstd": "~>0.2.1"
|
||||||
},
|
},
|
||||||
"stringImportPaths": [
|
"stringImportPaths": [
|
||||||
|
|
|
||||||
|
|
@ -2,7 +2,6 @@
|
||||||
"fileVersion": 1,
|
"fileVersion": 1,
|
||||||
"versions": {
|
"versions": {
|
||||||
"arsd-official": "12.0.0",
|
"arsd-official": "12.0.0",
|
||||||
"d2sqlite3": "1.0.0",
|
|
||||||
"zstd": "0.2.1"
|
"zstd": "0.2.1"
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
|
||||||
|
|
@ -1,45 +1,24 @@
|
||||||
/// Модуль базовых структур и алгоритмов CDC (content-defined chunking).
|
|
||||||
module cdcdb.core;
|
module cdcdb.core;
|
||||||
|
|
||||||
import std.digest.sha : SHA256, digest;
|
import std.digest.sha : SHA256, digest;
|
||||||
|
|
||||||
/// Описание чанка данных.
|
|
||||||
///
|
|
||||||
/// Поля:
|
|
||||||
/// - `index` — порядковый номер чанка, начиная с 1.
|
|
||||||
/// - `offset` — смещение чанка в исходном буфере (в байтах).
|
|
||||||
/// - `size` — размер чанка (в байтах).
|
|
||||||
/// - `sha256` — SHA-256 содержимого (сырые 32 байта).
|
|
||||||
struct Chunk
|
struct Chunk
|
||||||
{
|
{
|
||||||
size_t index;
|
size_t index; // 1..N
|
||||||
size_t offset;
|
size_t offset; // offset in the source buffer
|
||||||
size_t size;
|
size_t size; // chunk size
|
||||||
immutable(ubyte)[32] sha256;
|
immutable(ubyte)[32] sha256; // hex(SHA-256) of the content
|
||||||
}
|
}
|
||||||
|
|
||||||
/// Change Data Capture (CDC) — алгоритм нарезки потока на чанки по содержимому.
|
// Change Data Capture (CDC)
|
||||||
///
|
|
||||||
/// Класс реализует скользящее шифрование (rolling hash) с двумя масками:
|
|
||||||
/// строгой (`_maskS`) до «нормального» размера и более слабой (`_maskL`) до «максимального».
|
|
||||||
final class CDC
|
final class CDC
|
||||||
{
|
{
|
||||||
private:
|
private:
|
||||||
size_t _minSize, _normalSize, _maxSize;
|
size_t _minSize, _normalSize, _maxSize;
|
||||||
ulong _maskS, _maskL;
|
ulong _maskS, _maskL;
|
||||||
// Таблица случайных значений Gear (должна быть сгенерирована отдельно в "gear.d")
|
// _gear
|
||||||
mixin(import("gear.d"));
|
mixin(import("gear.d"));
|
||||||
|
|
||||||
/// Вычисляет длину следующего чанка, начиная с начала `src`.
|
|
||||||
///
|
|
||||||
/// Параметры:
|
|
||||||
/// - `src` — оставшийся участок данных.
|
|
||||||
///
|
|
||||||
/// Возвращает: длину чанка в байтах.
|
|
||||||
///
|
|
||||||
/// Детали:
|
|
||||||
/// - Если данных меньше либо равно минимальному размеру — возвращает их длину.
|
|
||||||
/// - Сначала ищется граница по строгой маске до `_normalSize`, затем по слабой до `_maxSize`.
|
|
||||||
size_t cut(const(ubyte)[] src) pure nothrow @safe @nogc
|
size_t cut(const(ubyte)[] src) pure nothrow @safe @nogc
|
||||||
{
|
{
|
||||||
size_t size = src.length;
|
size_t size = src.length;
|
||||||
|
|
@ -57,13 +36,13 @@ private:
|
||||||
ulong fingerprint = 0;
|
ulong fingerprint = 0;
|
||||||
size_t index;
|
size_t index;
|
||||||
|
|
||||||
// Инициализация без проверки на разрез
|
// initialization without a cut-check
|
||||||
while (index < _minSize)
|
while (index < _minSize)
|
||||||
{
|
{
|
||||||
fingerprint = (fingerprint << 1) + _gear[src[index]];
|
fingerprint = (fingerprint << 1) + _gear[src[index]];
|
||||||
++index;
|
++index;
|
||||||
}
|
}
|
||||||
// Строгая маска
|
// strict mask
|
||||||
while (index < normalSize)
|
while (index < normalSize)
|
||||||
{
|
{
|
||||||
fingerprint = (fingerprint << 1) + _gear[src[index]];
|
fingerprint = (fingerprint << 1) + _gear[src[index]];
|
||||||
|
|
@ -71,7 +50,7 @@ private:
|
||||||
return index;
|
return index;
|
||||||
++index;
|
++index;
|
||||||
}
|
}
|
||||||
// Слабая маска
|
// weak mask
|
||||||
while (index < size)
|
while (index < size)
|
||||||
{
|
{
|
||||||
fingerprint = (fingerprint << 1) + _gear[src[index]];
|
fingerprint = (fingerprint << 1) + _gear[src[index]];
|
||||||
|
|
@ -83,21 +62,10 @@ private:
|
||||||
}
|
}
|
||||||
|
|
||||||
public:
|
public:
|
||||||
/// Создаёт экземпляр CDC.
|
|
||||||
///
|
|
||||||
/// Параметры:
|
|
||||||
/// - `minSize` — минимальный размер чанка.
|
|
||||||
/// - `normalSize` — целевой (нормальный) размер чанка.
|
|
||||||
/// - `maxSize` — максимальный размер чанка.
|
|
||||||
/// - `maskS` — строгая маска (для поиска границы до `normalSize`).
|
|
||||||
/// - `maskL` — слабая маска (для поиска границы до `maxSize`).
|
|
||||||
///
|
|
||||||
/// Замечания:
|
|
||||||
/// - Требуется `0 < minSize < normalSize < maxSize`.
|
|
||||||
this(size_t minSize, size_t normalSize, size_t maxSize, ulong maskS, ulong maskL) @safe @nogc nothrow
|
this(size_t minSize, size_t normalSize, size_t maxSize, ulong maskS, ulong maskL) @safe @nogc nothrow
|
||||||
{
|
{
|
||||||
assert(minSize > 0 && minSize < normalSize && normalSize < maxSize,
|
assert(minSize > 0 && minSize < normalSize && normalSize < maxSize,
|
||||||
"Некорректные размеры: требуется 0 < min < normal < max");
|
"Invalid sizes: require min < normal < max and min > 0");
|
||||||
_minSize = minSize;
|
_minSize = minSize;
|
||||||
_normalSize = normalSize;
|
_normalSize = normalSize;
|
||||||
_maxSize = maxSize;
|
_maxSize = maxSize;
|
||||||
|
|
@ -105,12 +73,6 @@ public:
|
||||||
_maskL = maskL;
|
_maskL = maskL;
|
||||||
}
|
}
|
||||||
|
|
||||||
/// Разбивает буфер `data` на последовательность чанков.
|
|
||||||
///
|
|
||||||
/// Параметры:
|
|
||||||
/// - `data` — исходные байты.
|
|
||||||
///
|
|
||||||
/// Возвращает: массив `Chunk` в порядке следования.
|
|
||||||
Chunk[] split(const(ubyte)[] data) @safe nothrow
|
Chunk[] split(const(ubyte)[] data) @safe nothrow
|
||||||
{
|
{
|
||||||
Chunk[] chunks;
|
Chunk[] chunks;
|
||||||
|
|
|
||||||
File diff suppressed because it is too large
Load diff
|
|
@ -1,110 +0,0 @@
|
||||||
module cdcdb.lib.hash;
|
|
||||||
|
|
||||||
import std.format : format;
|
|
||||||
|
|
||||||
struct Identifier
|
|
||||||
{
|
|
||||||
private:
|
|
||||||
ubyte[] _data;
|
|
||||||
|
|
||||||
ubyte hxc(ref const char c) const
|
|
||||||
{
|
|
||||||
auto lc = cast(char)(c | 32);
|
|
||||||
if (lc >= '0' && lc <= '9')
|
|
||||||
return cast(ubyte)(lc - '0');
|
|
||||||
if (lc >= 'a' && lc <= 'f')
|
|
||||||
return cast(ubyte)(10 + lc - 'a');
|
|
||||||
throw new Exception("Некорректный символ hex");
|
|
||||||
}
|
|
||||||
|
|
||||||
ubyte[] fromHex(ref const string hash) const
|
|
||||||
{
|
|
||||||
import std.exception : enforce;
|
|
||||||
|
|
||||||
enforce(hash.length > 0, "Hex-строка не может быть пустой.");
|
|
||||||
enforce(hash.length <= 32, "Длина hex-строки не должна превышать 32 символа.");
|
|
||||||
|
|
||||||
size_t byteLen = (hash.length + 1) / 2; // Округление вверх для нечётной длины
|
|
||||||
ubyte[] data = new ubyte[byteLen];
|
|
||||||
|
|
||||||
foreach (i; 0 .. hash.length / 2)
|
|
||||||
{
|
|
||||||
data[i] = cast(ubyte)((hxc(hash[2 * i]) << 4) | hxc(hash[2 * i + 1]));
|
|
||||||
}
|
|
||||||
|
|
||||||
if (hash.length % 2 != 0)
|
|
||||||
{
|
|
||||||
// Для нечётной длины: последний ниббл в старший разряд, младший = 0
|
|
||||||
data[$ - 1] = cast(ubyte)(hxc(hash[$ - 1]) << 4);
|
|
||||||
}
|
|
||||||
|
|
||||||
return data;
|
|
||||||
}
|
|
||||||
|
|
||||||
public:
|
|
||||||
// alias _data this;
|
|
||||||
|
|
||||||
this(const string hex)
|
|
||||||
{
|
|
||||||
_data = fromHex(hex);
|
|
||||||
}
|
|
||||||
|
|
||||||
void opAssign(const string hex)
|
|
||||||
{
|
|
||||||
_data = fromHex(hex);
|
|
||||||
}
|
|
||||||
|
|
||||||
this(ubyte[] data)
|
|
||||||
{
|
|
||||||
assert(data.length <= 16);
|
|
||||||
_data = data;
|
|
||||||
}
|
|
||||||
|
|
||||||
this(immutable(ubyte[]) data)
|
|
||||||
{
|
|
||||||
assert(data.length <= 16);
|
|
||||||
_data = data.dup;
|
|
||||||
}
|
|
||||||
|
|
||||||
this(ref const ubyte[16] data)
|
|
||||||
{
|
|
||||||
assert(data.length <= 16);
|
|
||||||
_data = data.dup;
|
|
||||||
}
|
|
||||||
|
|
||||||
void opAssign(immutable(ubyte[]) data)
|
|
||||||
{
|
|
||||||
assert(data.length <= 16);
|
|
||||||
_data = data.dup;
|
|
||||||
}
|
|
||||||
|
|
||||||
void opAssign(ubyte[] data)
|
|
||||||
{
|
|
||||||
assert(data.length <= 16);
|
|
||||||
_data = data;
|
|
||||||
}
|
|
||||||
|
|
||||||
string toString() const @safe pure
|
|
||||||
{
|
|
||||||
return format("%(%02x%)", _data);
|
|
||||||
}
|
|
||||||
|
|
||||||
string compact(int size = 4) const @safe pure
|
|
||||||
{
|
|
||||||
auto length = _data.length >= size && size > 0 ? size : _data.length;
|
|
||||||
return format("%(%02x%)", _data[0 .. length]);
|
|
||||||
}
|
|
||||||
|
|
||||||
ubyte[] data()
|
|
||||||
{
|
|
||||||
return _data;
|
|
||||||
}
|
|
||||||
|
|
||||||
ubyte[] opIndex() {
|
|
||||||
return _data;
|
|
||||||
}
|
|
||||||
|
|
||||||
@trusted pure nothrow @nogc @property bool empty() const {
|
|
||||||
return _data.length == 0;
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
@ -1,4 +0,0 @@
|
||||||
module cdcdb.lib;
|
|
||||||
|
|
||||||
public import cdcdb.lib.hash;
|
|
||||||
public import cdcdb.lib.uts;
|
|
||||||
|
|
@ -1,61 +0,0 @@
|
||||||
module cdcdb.lib.uts;
|
|
||||||
|
|
||||||
import std.datetime : SysTime, msecs;
|
|
||||||
|
|
||||||
// 2050-01-01 00:00:00 UTC
|
|
||||||
private enum UTS_LAST_TS = 0x967a7600; // 2524608000L
|
|
||||||
// Extended
|
|
||||||
private enum UTS_LAST_TS_EXT = UTS_LAST_TS * 1_000L;
|
|
||||||
|
|
||||||
// Unix Timestamp с миллисекундами
|
|
||||||
struct UTS
|
|
||||||
{
|
|
||||||
private:
|
|
||||||
long _ts;
|
|
||||||
|
|
||||||
long calc(SysTime systime) {
|
|
||||||
long millis = systime.toUnixTime() * 1000L + systime.fracSecs.total!"msecs";
|
|
||||||
return millis;
|
|
||||||
}
|
|
||||||
|
|
||||||
public:
|
|
||||||
this(long ts) {
|
|
||||||
assert(ts < UTS_LAST_TS_EXT);
|
|
||||||
_ts = ts;
|
|
||||||
}
|
|
||||||
|
|
||||||
this(SysTime systime) {
|
|
||||||
_ts = calc(systime);
|
|
||||||
}
|
|
||||||
|
|
||||||
void opAssign(SysTime systime) {
|
|
||||||
_ts = calc(systime);
|
|
||||||
}
|
|
||||||
|
|
||||||
void opAssign(long ts) {
|
|
||||||
assert(ts < UTS_LAST_TS_EXT);
|
|
||||||
_ts = ts;
|
|
||||||
}
|
|
||||||
|
|
||||||
string toString() const
|
|
||||||
{
|
|
||||||
import std.format : format;
|
|
||||||
|
|
||||||
string formatStr = "%04d-%02d-%02d %02d:%02d:%02d.%03d";
|
|
||||||
long seconds = _ts / 1_000L;
|
|
||||||
long millis = _ts % 1_000L;
|
|
||||||
auto sysTime = SysTime.fromUnixTime(seconds) + msecs(millis);
|
|
||||||
return format(formatStr,
|
|
||||||
sysTime.year, sysTime.month, sysTime.day,
|
|
||||||
sysTime.hour, sysTime.minute, sysTime.second,
|
|
||||||
sysTime.fracSecs.total!"msecs");
|
|
||||||
}
|
|
||||||
|
|
||||||
@property const(SysTime) sys() const @safe {
|
|
||||||
return SysTime.fromUnixTime(_ts / 1_000L);
|
|
||||||
}
|
|
||||||
|
|
||||||
@property long unix() const @safe {
|
|
||||||
return _ts;
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
@ -1,6 +1,4 @@
|
||||||
module cdcdb;
|
module cdcdb;
|
||||||
|
|
||||||
public import cdcdb.lib;
|
|
||||||
public import cdcdb.storage;
|
public import cdcdb.storage;
|
||||||
public import cdcdb.storagefile;
|
|
||||||
public import cdcdb.snapshot;
|
public import cdcdb.snapshot;
|
||||||
|
|
|
||||||
|
|
@ -1,51 +1,19 @@
|
||||||
auto _scheme = [
|
auto _scheme = [
|
||||||
q{
|
q{
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
-- Таблица users
|
-- Таблица labels
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
CREATE TABLE IF NOT EXISTS users (
|
CREATE TABLE IF NOT EXISTS labels (
|
||||||
-- Linux UID
|
-- идентификатор метки
|
||||||
uid INTEGER PRIMARY KEY,
|
id INTEGER PRIMARY KEY AUTOINCREMENT,
|
||||||
-- текстовое представление пользователя
|
-- имя метки
|
||||||
name TEXT NOT NULL UNIQUE
|
name TEXT NOT NULL UNIQUE
|
||||||
)
|
)
|
||||||
},
|
},
|
||||||
q{
|
q{
|
||||||
-- Индекс по имени пользователя
|
-- Индекс по имени метки
|
||||||
CREATE INDEX IF NOT EXISTS idx_users_name
|
CREATE INDEX IF NOT EXISTS idx_labels_name
|
||||||
ON users(name)
|
ON labels(name)
|
||||||
},
|
|
||||||
q{
|
|
||||||
-- ------------------------------------------------------------
|
|
||||||
-- Таблица processes
|
|
||||||
-- ------------------------------------------------------------
|
|
||||||
CREATE TABLE IF NOT EXISTS processes (
|
|
||||||
-- идентификатор процесса
|
|
||||||
id BLOB PRIMARY KEY,
|
|
||||||
-- имя процесса
|
|
||||||
name TEXT NOT NULL UNIQUE
|
|
||||||
) WITHOUT ROWID
|
|
||||||
},
|
|
||||||
q{
|
|
||||||
-- Индекс по имени процесса
|
|
||||||
CREATE INDEX IF NOT EXISTS idx_processes_name
|
|
||||||
ON processes(name)
|
|
||||||
},
|
|
||||||
q{
|
|
||||||
-- ------------------------------------------------------------
|
|
||||||
-- Таблица files
|
|
||||||
-- ------------------------------------------------------------
|
|
||||||
CREATE TABLE IF NOT EXISTS files (
|
|
||||||
-- идентификатор файла
|
|
||||||
id BLOB PRIMARY KEY,
|
|
||||||
-- имя файла
|
|
||||||
name TEXT NOT NULL UNIQUE
|
|
||||||
) WITHOUT ROWID
|
|
||||||
},
|
|
||||||
q{
|
|
||||||
-- Индекс по имени файла
|
|
||||||
CREATE INDEX IF NOT EXISTS idx_files_name
|
|
||||||
ON files(name)
|
|
||||||
},
|
},
|
||||||
q{
|
q{
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
|
|
@ -53,23 +21,17 @@ auto _scheme = [
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
CREATE TABLE IF NOT EXISTS snapshots (
|
CREATE TABLE IF NOT EXISTS snapshots (
|
||||||
-- идентификатор снимка
|
-- идентификатор снимка
|
||||||
id BLOB PRIMARY KEY,
|
id INTEGER PRIMARY KEY AUTOINCREMENT,
|
||||||
-- Файл
|
-- метка/название снимка
|
||||||
file BLOB NOT NULL,
|
label INTEGER NOT NULL,
|
||||||
-- SHA-256 всего файла (BLOB(32))
|
-- SHA-256 всего файла (BLOB(32))
|
||||||
sha256 BLOB NOT NULL CHECK (length(sha256) = 32),
|
sha256 BLOB NOT NULL CHECK (length(sha256) = 32),
|
||||||
-- Комментарий/описание
|
-- Комментарий/описание
|
||||||
description TEXT DEFAULT NULL,
|
description TEXT DEFAULT NULL,
|
||||||
-- время создания (UTC)
|
-- время создания (UTC)
|
||||||
created_utc INTEGER NOT NULL,
|
created_utc TEXT NOT NULL DEFAULT (CURRENT_TIMESTAMP),
|
||||||
-- длина исходного файла в байтах
|
-- длина исходного файла в байтах
|
||||||
source_length INTEGER NOT NULL,
|
source_length INTEGER NOT NULL,
|
||||||
-- UID пользователя (эффективный)
|
|
||||||
uid INTEGER NOT NULL,
|
|
||||||
-- RUID пользователя (реальный)
|
|
||||||
ruid INTEGER NOT NULL,
|
|
||||||
-- Процесс
|
|
||||||
process BLOB NOT NULL,
|
|
||||||
-- FastCDC: минимальный размер чанка
|
-- FastCDC: минимальный размер чанка
|
||||||
algo_min INTEGER NOT NULL,
|
algo_min INTEGER NOT NULL,
|
||||||
-- FastCDC: целевой размер чанка
|
-- FastCDC: целевой размер чанка
|
||||||
|
|
@ -83,24 +45,11 @@ auto _scheme = [
|
||||||
-- 0=pending, 1=ready
|
-- 0=pending, 1=ready
|
||||||
status INTEGER NOT NULL DEFAULT 0
|
status INTEGER NOT NULL DEFAULT 0
|
||||||
CHECK (status IN (0,1)),
|
CHECK (status IN (0,1)),
|
||||||
-- Внешние ключи
|
FOREIGN KEY (label)
|
||||||
FOREIGN KEY (uid)
|
REFERENCES labels(id)
|
||||||
REFERENCES users(uid)
|
|
||||||
ON UPDATE RESTRICT
|
|
||||||
ON DELETE RESTRICT,
|
|
||||||
FOREIGN KEY (ruid)
|
|
||||||
REFERENCES users(uid)
|
|
||||||
ON UPDATE RESTRICT
|
|
||||||
ON DELETE RESTRICT,
|
|
||||||
FOREIGN KEY (process)
|
|
||||||
REFERENCES processes(id)
|
|
||||||
ON UPDATE RESTRICT
|
|
||||||
ON DELETE RESTRICT
|
|
||||||
FOREIGN KEY (file)
|
|
||||||
REFERENCES files(id)
|
|
||||||
ON UPDATE CASCADE
|
ON UPDATE CASCADE
|
||||||
ON DELETE CASCADE
|
ON DELETE CASCADE
|
||||||
) WITHOUT ROWID
|
)
|
||||||
},
|
},
|
||||||
q{
|
q{
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
|
|
@ -118,9 +67,9 @@ auto _scheme = [
|
||||||
-- байты (сжатые при zstd=1, иначе исходные)
|
-- байты (сжатые при zstd=1, иначе исходные)
|
||||||
content BLOB NOT NULL,
|
content BLOB NOT NULL,
|
||||||
-- время создания записи (UTC)
|
-- время создания записи (UTC)
|
||||||
created_utc INTEGER NOT NULL,
|
created_utc TEXT NOT NULL DEFAULT (CURRENT_TIMESTAMP),
|
||||||
-- время последней ссылки (UTC)
|
-- время последней ссылки (UTC)
|
||||||
last_seen_utc INTEGER NOT NULL,
|
last_seen_utc TEXT NOT NULL DEFAULT (CURRENT_TIMESTAMP),
|
||||||
-- число ссылок из snapshot_chunks
|
-- число ссылок из snapshot_chunks
|
||||||
refcount INTEGER NOT NULL DEFAULT 0,
|
refcount INTEGER NOT NULL DEFAULT 0,
|
||||||
-- 0=нет сжатия, 1=zstd
|
-- 0=нет сжатия, 1=zstd
|
||||||
|
|
@ -132,7 +81,7 @@ auto _scheme = [
|
||||||
(zstd = 0 AND length(content) = size)
|
(zstd = 0 AND length(content) = size)
|
||||||
),
|
),
|
||||||
CHECK (z_sha256 IS NULL OR length(z_sha256) = 32)
|
CHECK (z_sha256 IS NULL OR length(z_sha256) = 32)
|
||||||
) WITHOUT ROWID
|
)
|
||||||
},
|
},
|
||||||
q{
|
q{
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
|
|
@ -140,7 +89,7 @@ auto _scheme = [
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
CREATE TABLE IF NOT EXISTS snapshot_chunks (
|
CREATE TABLE IF NOT EXISTS snapshot_chunks (
|
||||||
-- FK -> snapshots.id
|
-- FK -> snapshots.id
|
||||||
snapshot_id BLOB NOT NULL,
|
snapshot_id INTEGER NOT NULL,
|
||||||
-- порядковый номер чанка в снимке
|
-- порядковый номер чанка в снимке
|
||||||
chunk_index INTEGER NOT NULL,
|
chunk_index INTEGER NOT NULL,
|
||||||
-- смещение чанка в исходном файле, байт
|
-- смещение чанка в исходном файле, байт
|
||||||
|
|
@ -156,12 +105,12 @@ auto _scheme = [
|
||||||
REFERENCES blobs(sha256)
|
REFERENCES blobs(sha256)
|
||||||
ON UPDATE RESTRICT
|
ON UPDATE RESTRICT
|
||||||
ON DELETE RESTRICT
|
ON DELETE RESTRICT
|
||||||
) WITHOUT ROWID
|
)
|
||||||
},
|
},
|
||||||
q{
|
q{
|
||||||
-- Индекс для запросов вида: WHERE file=? AND sha256=?
|
-- Индекс для запросов вида: WHERE label=? AND sha256=?
|
||||||
CREATE INDEX IF NOT EXISTS idx_snapshots_path_sha
|
CREATE INDEX IF NOT EXISTS idx_snapshots_path_sha
|
||||||
ON snapshots(file, sha256)
|
ON snapshots(label, sha256)
|
||||||
},
|
},
|
||||||
q{
|
q{
|
||||||
-- Индекс для обратного поиска использования blob по sha256
|
-- Индекс для обратного поиска использования blob по sha256
|
||||||
|
|
@ -178,7 +127,7 @@ auto _scheme = [
|
||||||
BEGIN
|
BEGIN
|
||||||
UPDATE blobs
|
UPDATE blobs
|
||||||
SET refcount = refcount + 1,
|
SET refcount = refcount + 1,
|
||||||
last_seen_utc = cast(unixepoch("subsecond") * 1000 as int)
|
last_seen_utc = CURRENT_TIMESTAMP
|
||||||
WHERE sha256 = NEW.sha256;
|
WHERE sha256 = NEW.sha256;
|
||||||
END
|
END
|
||||||
},
|
},
|
||||||
|
|
@ -213,7 +162,7 @@ auto _scheme = [
|
||||||
|
|
||||||
UPDATE blobs
|
UPDATE blobs
|
||||||
SET refcount = refcount + 1,
|
SET refcount = refcount + 1,
|
||||||
last_seen_utc = cast(unixepoch("subsecond") * 1000 as int)
|
last_seen_utc = CURRENT_TIMESTAMP
|
||||||
WHERE sha256 = NEW.sha256;
|
WHERE sha256 = NEW.sha256;
|
||||||
END
|
END
|
||||||
},
|
},
|
||||||
|
|
@ -286,14 +235,11 @@ auto _scheme = [
|
||||||
FOR EACH ROW
|
FOR EACH ROW
|
||||||
WHEN
|
WHEN
|
||||||
NEW.id IS NOT OLD.id OR
|
NEW.id IS NOT OLD.id OR
|
||||||
NEW.file IS NOT OLD.file OR
|
NEW.label IS NOT OLD.label OR
|
||||||
NEW.sha256 IS NOT OLD.sha256 OR
|
NEW.sha256 IS NOT OLD.sha256 OR
|
||||||
NEW.description IS NOT OLD.description OR
|
NEW.description IS NOT OLD.description OR
|
||||||
NEW.created_utc IS NOT OLD.created_utc OR
|
NEW.created_utc IS NOT OLD.created_utc OR
|
||||||
NEW.source_length IS NOT OLD.source_length OR
|
NEW.source_length IS NOT OLD.source_length OR
|
||||||
NEW.uid IS NOT OLD.uid OR
|
|
||||||
NEW.ruid IS NOT OLD.ruid OR
|
|
||||||
NEW.process IS NOT OLD.process OR
|
|
||||||
NEW.algo_min IS NOT OLD.algo_min OR
|
NEW.algo_min IS NOT OLD.algo_min OR
|
||||||
NEW.algo_normal IS NOT OLD.algo_normal OR
|
NEW.algo_normal IS NOT OLD.algo_normal OR
|
||||||
NEW.algo_max IS NOT OLD.algo_max OR
|
NEW.algo_max IS NOT OLD.algo_max OR
|
||||||
|
|
@ -326,16 +272,16 @@ auto _scheme = [
|
||||||
},
|
},
|
||||||
q{
|
q{
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
-- Удаление записи из files, если удалён последний snapshot
|
-- Удаление записи из labels, если удалён последний snapshot
|
||||||
-- ------------------------------------------------------------
|
-- ------------------------------------------------------------
|
||||||
CREATE TRIGGER IF NOT EXISTS trg_snapshots_delete_file
|
CREATE TRIGGER IF NOT EXISTS trg_snapshots_delete_label
|
||||||
AFTER DELETE ON snapshots
|
AFTER DELETE ON snapshots
|
||||||
FOR EACH ROW
|
FOR EACH ROW
|
||||||
BEGIN
|
BEGIN
|
||||||
DELETE FROM files
|
DELETE FROM labels
|
||||||
WHERE id = OLD.file
|
WHERE id = OLD.label
|
||||||
AND NOT EXISTS (
|
AND NOT EXISTS (
|
||||||
SELECT 1 FROM snapshots WHERE file = OLD.file
|
SELECT 1 FROM snapshots WHERE label = OLD.label
|
||||||
);
|
);
|
||||||
END;
|
END;
|
||||||
}
|
}
|
||||||
|
|
|
||||||
|
|
@ -1,43 +1,90 @@
|
||||||
module cdcdb.snapshot;
|
module cdcdb.snapshot;
|
||||||
|
|
||||||
import cdcdb.dblite;
|
import cdcdb.dblite;
|
||||||
import cdcdb.lib;
|
|
||||||
|
|
||||||
import zstd : uncompress;
|
import zstd : uncompress;
|
||||||
|
|
||||||
import std.digest.sha : SHA256, digest;
|
import std.digest.sha : SHA256, digest;
|
||||||
|
import std.datetime : DateTime;
|
||||||
import std.exception : enforce;
|
import std.exception : enforce;
|
||||||
import std.datetime : SysTime;
|
|
||||||
|
|
||||||
|
/**
|
||||||
|
* Snapshot reader and lifecycle helper.
|
||||||
|
*
|
||||||
|
* This class reconstructs full file content from chunked storage persisted
|
||||||
|
* via `DBLite`, verifies integrity (per-chunk SHA-256 and final file hash),
|
||||||
|
* and provides a safe way to remove a snapshot record.
|
||||||
|
*
|
||||||
|
* Usage:
|
||||||
|
* ---
|
||||||
|
* auto s1 = new Snapshot(db, snapshotId);
|
||||||
|
* auto bytes = s1.data(); // materialize full content in memory
|
||||||
|
*
|
||||||
|
* // or stream into a sink to avoid large allocations:
|
||||||
|
* s1.data((const(ubyte)[] part) {
|
||||||
|
* // consume part
|
||||||
|
* });
|
||||||
|
* ---
|
||||||
|
*
|
||||||
|
* Notes:
|
||||||
|
* - All integrity checks are enforced; any mismatch throws.
|
||||||
|
* - `data(void delegate(...))` is preferred for very large files.
|
||||||
|
*/
|
||||||
final class Snapshot
|
final class Snapshot
|
||||||
{
|
{
|
||||||
private:
|
private:
|
||||||
DBLite _db;
|
DBLite _db;
|
||||||
DBSnapshot _snapshot;
|
DBSnapshot _snapshot;
|
||||||
|
|
||||||
// Возвращает исходные байты чанка с учётом возможного сжатия и проверкой хеша.
|
|
||||||
const(ubyte)[] getBytes(const ref DBSnapshotChunkData chunk)
|
const(ubyte)[] getBytes(const ref DBSnapshotChunkData chunk)
|
||||||
{
|
{
|
||||||
ubyte[] bytes;
|
ubyte[] bytes;
|
||||||
if (chunk.zstd)
|
if (chunk.zstd)
|
||||||
{
|
{
|
||||||
enforce(chunk.zSize == chunk.content.length,
|
enforce(chunk.zSize == chunk.content.length, "Compressed chunk size does not match the expected value");
|
||||||
"Размер сжатого чанка не совпадает с ожидаемым значением");
|
|
||||||
bytes = cast(ubyte[]) uncompress(chunk.content);
|
bytes = cast(ubyte[]) uncompress(chunk.content);
|
||||||
}
|
}
|
||||||
else
|
else
|
||||||
{
|
{
|
||||||
bytes = chunk.content.dup;
|
bytes = chunk.content.dup;
|
||||||
}
|
}
|
||||||
enforce(chunk.size == bytes.length, "Исходный размер чанка не совпадает с ожидаемым значением");
|
enforce(chunk.size == bytes.length, "Original size does not match the expected value");
|
||||||
enforce(chunk.sha256 == digest!SHA256(bytes), "Хеш чанка не совпадает");
|
enforce(chunk.sha256 == digest!SHA256(bytes), "Chunk hash does not match");
|
||||||
|
|
||||||
return bytes;
|
return bytes;
|
||||||
}
|
}
|
||||||
|
|
||||||
public:
|
public:
|
||||||
this(DBLite dblite, DBSnapshot dbSnapshot) { _db = dblite; _snapshot = dbSnapshot; }
|
/// Construct a `Snapshot` from an already fetched `DBSnapshot` row.
|
||||||
|
///
|
||||||
|
/// Params:
|
||||||
|
/// dblite = database handle
|
||||||
|
/// dbSnapshot = snapshot row (metadata) previously retrieved
|
||||||
|
this(DBLite dblite, DBSnapshot dbSnapshot)
|
||||||
|
{
|
||||||
|
_db = dblite;
|
||||||
|
_snapshot = dbSnapshot;
|
||||||
|
}
|
||||||
|
|
||||||
|
/// Construct a `Snapshot` by loading metadata from the database.
|
||||||
|
///
|
||||||
|
/// Params:
|
||||||
|
/// dblite = database handle
|
||||||
|
/// idSnapshot = snapshot id to load
|
||||||
|
this(DBLite dblite, long idSnapshot)
|
||||||
|
{
|
||||||
|
_db = dblite;
|
||||||
|
_snapshot = _db.getSnapshot(idSnapshot);
|
||||||
|
}
|
||||||
|
|
||||||
|
/// Materialize the full file content in memory.
|
||||||
|
///
|
||||||
|
/// Reassembles all chunks in order, validates each chunk SHA-256 and the
|
||||||
|
/// final file SHA-256 (`snapshots.sha256`).
|
||||||
|
///
|
||||||
|
/// Returns: full file content as a newly allocated `ubyte[]`
|
||||||
|
///
|
||||||
|
/// Throws: Exception on any integrity check failure
|
||||||
ubyte[] data()
|
ubyte[] data()
|
||||||
{
|
{
|
||||||
auto chunks = _db.getChunks(_snapshot.id);
|
auto chunks = _db.getChunks(_snapshot.id);
|
||||||
|
|
@ -53,11 +100,20 @@ public:
|
||||||
fctx.put(bytes);
|
fctx.put(bytes);
|
||||||
}
|
}
|
||||||
|
|
||||||
enforce(_snapshot.sha256 == fctx.finish(), "Хеш итогового файла не совпадает");
|
enforce(_snapshot.sha256 == fctx.finish(), "File hash does not match");
|
||||||
|
|
||||||
return content;
|
return content;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
/// Stream the full file content into a caller-provided sink.
|
||||||
|
///
|
||||||
|
/// This variant avoids allocating a single large buffer. Chunks are
|
||||||
|
/// decoded, verified, and passed to `sink` in order.
|
||||||
|
///
|
||||||
|
/// Params:
|
||||||
|
/// sink = delegate invoked for each verified chunk (may be called many times)
|
||||||
|
///
|
||||||
|
/// Throws: Exception on any integrity check failure
|
||||||
void data(void delegate(const(ubyte)[]) sink)
|
void data(void delegate(const(ubyte)[]) sink)
|
||||||
{
|
{
|
||||||
auto chunks = _db.getChunks(_snapshot.id);
|
auto chunks = _db.getChunks(_snapshot.id);
|
||||||
|
|
@ -70,49 +126,81 @@ public:
|
||||||
fctx.put(bytes);
|
fctx.put(bytes);
|
||||||
}
|
}
|
||||||
|
|
||||||
enforce(_snapshot.sha256 == fctx.finish(), "Хеш итогового файла не совпадает");
|
enforce(_snapshot.sha256 == fctx.finish(), "File hash does not match");
|
||||||
}
|
}
|
||||||
|
|
||||||
// -----------------------------
|
/// Remove this snapshot from the database inside a transaction.
|
||||||
// Доступ к метаданным снимка
|
///
|
||||||
// -----------------------------
|
/// Starts an IMMEDIATE transaction, deletes the snapshot row, and commits.
|
||||||
|
/// On any failure it rolls back.
|
||||||
|
///
|
||||||
|
/// Returns: `true` if the snapshot row was deleted, `false` otherwise
|
||||||
|
///
|
||||||
|
/// Note: Does not garbage-collect unreferenced blobs; perform that separately.
|
||||||
|
bool remove()
|
||||||
|
{
|
||||||
|
_db.beginImmediate();
|
||||||
|
|
||||||
/// ID снимка (PRIMARY KEY).
|
bool ok;
|
||||||
@property Identifier id() nothrow @safe { return _snapshot.id; }
|
|
||||||
/// Имя файла (из таблицы `files`).
|
scope (exit)
|
||||||
@property string file() const nothrow @safe { return _snapshot.file.path; }
|
{
|
||||||
/// Время создания (UTC).
|
if (!ok)
|
||||||
@property const(SysTime) created() const @safe { return _snapshot.createdUtc.sys; }
|
_db.rollback();
|
||||||
/// Длина исходного файла (байты).
|
}
|
||||||
@property long length() const nothrow @safe { return _snapshot.sourceLength; }
|
scope (success)
|
||||||
/// Ожидаемый SHA-256 всего файла (сырые 32 байта).
|
{
|
||||||
@property ubyte[32] sha256() const nothrow @safe { return _snapshot.sha256; }
|
_db.commit();
|
||||||
/// Статус снимка (строкой).
|
}
|
||||||
@property string status() const { import std.conv : to; return _snapshot.status.to!string; }
|
|
||||||
/// Необязательное описание.
|
long idDeleted = _db.deleteSnapshot(_snapshot.id);
|
||||||
@property string description() const nothrow @safe { return _snapshot.description; }
|
|
||||||
/// FastCDC: минимальный размер чанка.
|
ok = true;
|
||||||
@property long algoMin() const nothrow @safe { return _snapshot.algoMin; }
|
|
||||||
/// FastCDC: целевой (нормальный) размер чанка.
|
return _snapshot.id == idDeleted;
|
||||||
@property long algoNormal() const nothrow @safe { return _snapshot.algoNormal; }
|
}
|
||||||
/// FastCDC: максимальный размер чанка.
|
|
||||||
@property long algoMax() const nothrow @safe { return _snapshot.algoMax; }
|
/// Snapshot id (primary key).
|
||||||
/// FastCDC: строгая маска.
|
@property long id() const nothrow @safe
|
||||||
@property long maskS() const nothrow @safe { return _snapshot.maskS; }
|
{
|
||||||
/// FastCDC: слабая маска.
|
return _snapshot.id;
|
||||||
@property long maskL() const nothrow @safe { return _snapshot.maskL; }
|
}
|
||||||
/// UID процесса (effective).
|
|
||||||
@property long uid() const nothrow @safe { return _snapshot.uid; }
|
/// User-defined label.
|
||||||
/// Real UID процесса.
|
@property string label() const @safe
|
||||||
@property long ruid() const nothrow @safe { return _snapshot.ruid; }
|
{
|
||||||
/// Имя пользователя для `uid`.
|
return _snapshot.label;
|
||||||
@property string uidName() const nothrow @safe { return _snapshot.uidName; }
|
}
|
||||||
/// Имя пользователя для `ruid`.
|
|
||||||
@property string ruidName() const nothrow @safe { return _snapshot.ruidName; }
|
/// Creation timestamp (UTC) from the database.
|
||||||
/// Имя процесса (из таблицы `processes`).
|
@property DateTime created() const @safe
|
||||||
@property string process() const nothrow @safe { return _snapshot.process.name; }
|
{
|
||||||
/// Удобный флаг: снимок «готов».
|
return _snapshot.createdUtc;
|
||||||
@property bool isReady() const nothrow @safe { return _snapshot.status == SnapshotStatus.ready; }
|
}
|
||||||
/// Удобный флаг: снимок «в процессе».
|
|
||||||
@property bool isPending() const nothrow @safe { return _snapshot.status == SnapshotStatus.pending; }
|
/// Original file length in bytes.
|
||||||
|
@property long length() const nothrow @safe
|
||||||
|
{
|
||||||
|
return _snapshot.sourceLength;
|
||||||
|
}
|
||||||
|
|
||||||
|
/// Expected SHA-256 of the full file (32 raw bytes).
|
||||||
|
@property ubyte[32] sha256() const nothrow @safe
|
||||||
|
{
|
||||||
|
return _snapshot.sha256;
|
||||||
|
}
|
||||||
|
|
||||||
|
/// Snapshot status as a string (enum to string).
|
||||||
|
@property string status() const
|
||||||
|
{
|
||||||
|
import std.conv : to;
|
||||||
|
|
||||||
|
return _snapshot.status.to!string;
|
||||||
|
}
|
||||||
|
|
||||||
|
/// Optional human-readable description.
|
||||||
|
@property string description() const nothrow @safe
|
||||||
|
{
|
||||||
|
return _snapshot.description;
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
|
||||||
|
|
@ -1,32 +1,40 @@
|
||||||
module cdcdb.storage;
|
module cdcdb.storage;
|
||||||
|
|
||||||
import cdcdb.dblite;
|
import cdcdb.dblite;
|
||||||
import cdcdb.storagefile;
|
|
||||||
import cdcdb.snapshot;
|
|
||||||
import cdcdb.core;
|
import cdcdb.core;
|
||||||
import cdcdb.lib : Identifier;
|
import cdcdb.snapshot;
|
||||||
|
|
||||||
import zstd : compress, Level;
|
import zstd : compress, Level;
|
||||||
|
|
||||||
import std.exception : enforce;
|
/**
|
||||||
|
* High-level storage facade: splits data into CDC chunks, stores chunks/blobs
|
||||||
struct Context
|
* into SQLite via `DBLite`, links them into snapshots, and returns `Snapshot`
|
||||||
{
|
* objects for retrieval and deletion.
|
||||||
long uid; /// UID процесса (effective).
|
*
|
||||||
long ruid; /// Real UID процесса.
|
* Features:
|
||||||
string uidName; /// Имя пользователя для UID.
|
* - FastCDC-based content-defined chunking (configurable sizes/masks)
|
||||||
string ruidName; /// Имя пользователя для RUID.
|
* - Optional Zstandard compression (level configurable)
|
||||||
string process; /// Имя процесса.
|
* - Idempotent snapshot creation: skips if identical to the latest for label
|
||||||
}
|
*
|
||||||
|
* Typical usage:
|
||||||
|
* ---
|
||||||
|
* auto store = new Storage("cdc.sqlite", true, Level.default_);
|
||||||
|
* store.setupCDC(4096, 8192, 16384, 0x3FFF, 0x03FF);
|
||||||
|
*
|
||||||
|
* auto snap = store.newSnapshot("my.txt", data, "initial import");
|
||||||
|
* auto bytes = snap.data(); // retrieve
|
||||||
|
*
|
||||||
|
* auto removed = store.removeSnapshots("my.txt"); // remove by label
|
||||||
|
* ---
|
||||||
|
*/
|
||||||
final class Storage
|
final class Storage
|
||||||
{
|
{
|
||||||
private:
|
private:
|
||||||
// Параметры БД
|
// Database parameters
|
||||||
DBLite _db;
|
DBLite _db;
|
||||||
bool _zstd;
|
bool _zstd;
|
||||||
int _level;
|
int _level;
|
||||||
// Настройки CDC
|
// CDC settings
|
||||||
CDC _cdc;
|
CDC _cdc;
|
||||||
size_t _minSize;
|
size_t _minSize;
|
||||||
size_t _normalSize;
|
size_t _normalSize;
|
||||||
|
|
@ -34,7 +42,6 @@ private:
|
||||||
size_t _maskS;
|
size_t _maskS;
|
||||||
size_t _maskL;
|
size_t _maskL;
|
||||||
|
|
||||||
/// Инициализация параметров FastCDC.
|
|
||||||
void initCDC(size_t minSize = 256, size_t normalSize = 512, size_t maxSize = 1024,
|
void initCDC(size_t minSize = 256, size_t normalSize = 512, size_t maxSize = 1024,
|
||||||
size_t maskS = 0xFF, size_t maskL = 0x0F)
|
size_t maskS = 0xFF, size_t maskL = 0x0F)
|
||||||
{
|
{
|
||||||
|
|
@ -43,13 +50,20 @@ private:
|
||||||
_maxSize = maxSize;
|
_maxSize = maxSize;
|
||||||
_maskS = maskS;
|
_maskS = maskS;
|
||||||
_maskL = maskL;
|
_maskL = maskL;
|
||||||
// CDC не хранит динамического состояния, переинициализация безопасна
|
// CDC holds no dynamically allocated state; reinitialization is safe
|
||||||
_cdc = new CDC(_minSize, _normalSize, _maxSize, _maskS, _maskL);
|
_cdc = new CDC(_minSize, _normalSize, _maxSize, _maskS, _maskL);
|
||||||
}
|
}
|
||||||
|
|
||||||
public:
|
public:
|
||||||
this(string database, bool zstd = false, int level = Level.base,
|
/// Construct the storage facade and open (or create) the database.
|
||||||
size_t busyTimeout = 3000, size_t maxRetries = 3)
|
///
|
||||||
|
/// Params:
|
||||||
|
/// database = path to SQLite file
|
||||||
|
/// zstd = enable Zstandard compression for stored blobs
|
||||||
|
/// level = Zstd compression level (see `zstd.Level`)
|
||||||
|
/// busyTimeout = SQLite busy timeout in milliseconds
|
||||||
|
/// maxRetries = max retries on SQLITE_BUSY/LOCKED errors
|
||||||
|
this(string database, bool zstd = false, int level = Level.base, size_t busyTimeout = 3000, size_t maxRetries = 3)
|
||||||
{
|
{
|
||||||
_db = new DBLite(database, busyTimeout, maxRetries);
|
_db = new DBLite(database, busyTimeout, maxRetries);
|
||||||
_zstd = zstd;
|
_zstd = zstd;
|
||||||
|
|
@ -57,29 +71,49 @@ public:
|
||||||
initCDC();
|
initCDC();
|
||||||
}
|
}
|
||||||
|
|
||||||
void setupCDC(size_t minSize, size_t normalSize, size_t maxSize,
|
/// Reconfigure CDC parameters (takes effect for subsequent snapshots).
|
||||||
size_t maskS, size_t maskL)
|
///
|
||||||
|
/// Params:
|
||||||
|
/// minSize, normalSize, maxSize, maskS, maskL = FastCDC parameters
|
||||||
|
void setupCDC(size_t minSize, size_t normalSize, size_t maxSize, size_t maskS, size_t maskL)
|
||||||
{
|
{
|
||||||
initCDC(minSize, normalSize, maxSize, maskS, maskL);
|
initCDC(minSize, normalSize, maxSize, maskS, maskL);
|
||||||
}
|
}
|
||||||
|
|
||||||
Snapshot newSnapshot(string file, const(ubyte)[] data, Context context, string description = string.init)
|
/// Create a new snapshot from raw data.
|
||||||
|
///
|
||||||
|
/// - Splits data with FastCDC using current settings.
|
||||||
|
/// - Optionally compresses chunks with Zstd.
|
||||||
|
/// - Stores unique blobs and links them to the created snapshot.
|
||||||
|
/// - If the latest snapshot for `label` already has the same file SHA-256,
|
||||||
|
/// returns `null` (idempotent).
|
||||||
|
///
|
||||||
|
/// Params:
|
||||||
|
/// label = user-provided snapshot label (file identifier)
|
||||||
|
/// data = raw file bytes
|
||||||
|
/// description = optional human-readable description
|
||||||
|
///
|
||||||
|
/// Returns: a `Snapshot` instance for the created snapshot, or `null`
|
||||||
|
///
|
||||||
|
/// Throws:
|
||||||
|
/// Exception if `data` is empty or on database/storage errors
|
||||||
|
Snapshot newSnapshot(string label, const(ubyte)[] data, string description = string.init)
|
||||||
{
|
{
|
||||||
enforce(data.length > 0, "Данные имеют нулевую длину");
|
if (data.length == 0)
|
||||||
|
{
|
||||||
auto dbFile = _db.getFile(file);
|
throw new Exception("Data has zero length");
|
||||||
|
}
|
||||||
|
|
||||||
import std.digest.sha : SHA256, digest;
|
import std.digest.sha : SHA256, digest;
|
||||||
|
|
||||||
ubyte[32] sha256 = digest!SHA256(data);
|
ubyte[32] sha256 = digest!SHA256(data);
|
||||||
|
|
||||||
if (dbFile.empty) {
|
// If the last snapshot for the label matches current content
|
||||||
dbFile = _db.addFile(file);
|
if (_db.isLast(label, sha256))
|
||||||
} else if (_db.isLast(dbFile.id, sha256)) {
|
|
||||||
return null;
|
return null;
|
||||||
}
|
|
||||||
|
|
||||||
_db.beginImmediate();
|
_db.beginImmediate();
|
||||||
|
|
||||||
bool ok;
|
bool ok;
|
||||||
|
|
||||||
scope (exit)
|
scope (exit)
|
||||||
|
|
@ -92,22 +126,11 @@ public:
|
||||||
_db.commit();
|
_db.commit();
|
||||||
}
|
}
|
||||||
|
|
||||||
_db.addUser(context.uid, context.uidName);
|
_db.addLabel(label);
|
||||||
if (context.uid != context.ruid)
|
|
||||||
{
|
|
||||||
_db.addUser(context.ruid, context.ruidName);
|
|
||||||
}
|
|
||||||
|
|
||||||
auto dbProcess = _db.getProcess(context.process);
|
|
||||||
|
|
||||||
if (dbProcess.empty) {
|
|
||||||
dbProcess = _db.addProcess(context.process);
|
|
||||||
}
|
|
||||||
|
|
||||||
// Метаданные снимка
|
|
||||||
DBSnapshot dbSnapshot;
|
DBSnapshot dbSnapshot;
|
||||||
|
|
||||||
dbSnapshot.file = dbFile;
|
dbSnapshot.label = label;
|
||||||
dbSnapshot.sha256 = sha256;
|
dbSnapshot.sha256 = sha256;
|
||||||
dbSnapshot.description = description;
|
dbSnapshot.description = description;
|
||||||
dbSnapshot.sourceLength = data.length;
|
dbSnapshot.sourceLength = data.length;
|
||||||
|
|
@ -116,19 +139,18 @@ public:
|
||||||
dbSnapshot.algoMax = _maxSize;
|
dbSnapshot.algoMax = _maxSize;
|
||||||
dbSnapshot.maskS = _maskS;
|
dbSnapshot.maskS = _maskS;
|
||||||
dbSnapshot.maskL = _maskL;
|
dbSnapshot.maskL = _maskL;
|
||||||
dbSnapshot.uid = context.uid;
|
|
||||||
dbSnapshot.ruid = context.ruid;
|
|
||||||
dbSnapshot.process = dbProcess;
|
|
||||||
|
|
||||||
enforce(_db.addSnapshot(dbSnapshot), "Не удалось добавить новый снимок в базу данных");
|
auto idSnapshot = _db.addSnapshot(dbSnapshot);
|
||||||
|
|
||||||
// Чанки и блобы
|
|
||||||
DBSnapshotChunk dbSnapshotChunk;
|
DBSnapshotChunk dbSnapshotChunk;
|
||||||
DBBlob dbBlob;
|
DBBlob dbBlob;
|
||||||
|
|
||||||
dbBlob.zstd = _zstd;
|
dbBlob.zstd = _zstd;
|
||||||
|
|
||||||
|
// Split into chunks
|
||||||
Chunk[] chunks = _cdc.split(data);
|
Chunk[] chunks = _cdc.split(data);
|
||||||
|
|
||||||
|
// Write chunks to DB
|
||||||
foreach (chunk; chunks)
|
foreach (chunk; chunks)
|
||||||
{
|
{
|
||||||
dbBlob.sha256 = chunk.sha256;
|
dbBlob.sha256 = chunk.sha256;
|
||||||
|
|
@ -136,8 +158,7 @@ public:
|
||||||
|
|
||||||
auto content = data[chunk.offset .. chunk.offset + chunk.size];
|
auto content = data[chunk.offset .. chunk.offset + chunk.size];
|
||||||
|
|
||||||
if (_zstd)
|
if (_zstd) {
|
||||||
{
|
|
||||||
ubyte[] zBytes = compress(content, _level);
|
ubyte[] zBytes = compress(content, _level);
|
||||||
size_t zSize = zBytes.length;
|
size_t zSize = zBytes.length;
|
||||||
ubyte[32] zHash = digest!SHA256(zBytes);
|
ubyte[32] zHash = digest!SHA256(zBytes);
|
||||||
|
|
@ -145,107 +166,88 @@ public:
|
||||||
dbBlob.zSize = zSize;
|
dbBlob.zSize = zSize;
|
||||||
dbBlob.zSha256 = zHash;
|
dbBlob.zSha256 = zHash;
|
||||||
dbBlob.content = zBytes;
|
dbBlob.content = zBytes;
|
||||||
}
|
} else {
|
||||||
else
|
|
||||||
{
|
|
||||||
dbBlob.content = content.dup;
|
dbBlob.content = content.dup;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// Store/ensure blob
|
||||||
_db.addBlob(dbBlob);
|
_db.addBlob(dbBlob);
|
||||||
|
|
||||||
dbSnapshotChunk.snapshotId = dbSnapshot.id;
|
dbSnapshotChunk.snapshotId = idSnapshot;
|
||||||
dbSnapshotChunk.chunkIndex = chunk.index;
|
dbSnapshotChunk.chunkIndex = chunk.index;
|
||||||
dbSnapshotChunk.offset = chunk.offset;
|
dbSnapshotChunk.offset = chunk.offset;
|
||||||
dbSnapshotChunk.sha256 = chunk.sha256;
|
dbSnapshotChunk.sha256 = chunk.sha256;
|
||||||
|
|
||||||
enforce(_db.addSnapshotChunk(dbSnapshotChunk), "Не удалось привязать снимок к данным");
|
// Link chunk to snapshot
|
||||||
|
_db.addSnapshotChunk(dbSnapshotChunk);
|
||||||
}
|
}
|
||||||
|
|
||||||
ok = true;
|
ok = true;
|
||||||
return new Snapshot(_db, dbSnapshot);
|
|
||||||
|
Snapshot snapshot = new Snapshot(_db, idSnapshot);
|
||||||
|
|
||||||
|
return snapshot;
|
||||||
}
|
}
|
||||||
|
|
||||||
StorageFile getFile(string path) {
|
/// Delete snapshots by label.
|
||||||
auto dbFile = _db.getFile(path);
|
///
|
||||||
if (dbFile.empty) return null;
|
/// Params:
|
||||||
return new StorageFile(_db, dbFile);
|
/// label = snapshot label
|
||||||
|
///
|
||||||
|
/// Returns: number of deleted snapshots
|
||||||
|
long removeSnapshots(string label) {
|
||||||
|
return _db.deleteSnapshot(label);
|
||||||
}
|
}
|
||||||
|
|
||||||
StorageFile getFile(Identifier id) {
|
/// Delete a specific snapshot instance.
|
||||||
auto dbFile = _db.getFile(id);
|
///
|
||||||
if (dbFile.empty) return null;
|
/// Params:
|
||||||
return new StorageFile(_db, dbFile);
|
/// snapshot = `Snapshot` to remove
|
||||||
|
///
|
||||||
|
/// Returns: `true` on success, `false` otherwise
|
||||||
|
bool removeSnapshots(Snapshot snapshot) {
|
||||||
|
return removeSnapshots(snapshot.id);
|
||||||
}
|
}
|
||||||
|
|
||||||
StorageFile[] getFiles() {
|
/// Delete a snapshot by id.
|
||||||
StorageFile[] storageFiles;
|
///
|
||||||
foreach (dbFile; _db.getFiles()) {
|
/// Params:
|
||||||
storageFiles ~= new StorageFile(_db, dbFile);
|
/// idSnapshot = snapshot id
|
||||||
}
|
///
|
||||||
return storageFiles;
|
/// Returns: `true` if the row was deleted
|
||||||
|
bool removeSnapshots(long idSnapshot) {
|
||||||
|
return _db.deleteSnapshot(idSnapshot) == idSnapshot;
|
||||||
}
|
}
|
||||||
|
|
||||||
StorageFile[] findFile(string pattern) {
|
/// Get a `Snapshot` object by id.
|
||||||
StorageFile[] storageFiles;
|
///
|
||||||
foreach (dbFile; _db.findFile(pattern)) {
|
/// Params:
|
||||||
storageFiles ~= new StorageFile(_db, dbFile);
|
/// idSnapshot = snapshot id
|
||||||
}
|
///
|
||||||
return storageFiles;
|
/// Returns: `Snapshot` handle (metadata loaded lazily via constructor)
|
||||||
|
Snapshot getSnapshot(long idSnapshot) {
|
||||||
|
return new Snapshot(_db, idSnapshot);
|
||||||
}
|
}
|
||||||
|
|
||||||
StorageFile[] findFile(Identifier id) {
|
/// List snapshots (optionally filtered by label).
|
||||||
StorageFile[] storageFiles;
|
///
|
||||||
foreach (dbFile; _db.findFile(id)) {
|
/// Params:
|
||||||
storageFiles ~= new StorageFile(_db, dbFile);
|
/// label = filter by exact label; empty string returns all
|
||||||
}
|
///
|
||||||
return storageFiles;
|
/// Returns: array of `Snapshot` handles
|
||||||
}
|
Snapshot[] getSnapshots(string label = string.init) {
|
||||||
|
|
||||||
Snapshot getSnapshot(Identifier id) {
|
|
||||||
DBSnapshot dbSnapshot = _db.getSnapshot(id);
|
|
||||||
if (dbSnapshot.empty)
|
|
||||||
return null;
|
|
||||||
return new Snapshot(_db, dbSnapshot);
|
|
||||||
}
|
|
||||||
|
|
||||||
Snapshot[] getSnapshots(Identifier id) {
|
|
||||||
Snapshot[] snapshots;
|
Snapshot[] snapshots;
|
||||||
foreach (dbSnapshot; _db.getSnapshots(id))
|
|
||||||
{
|
foreach (snapshot; _db.getSnapshots(label)) {
|
||||||
snapshots ~= new Snapshot(_db, dbSnapshot);
|
snapshots ~= new Snapshot(_db, snapshot);
|
||||||
}
|
}
|
||||||
|
|
||||||
return snapshots;
|
return snapshots;
|
||||||
}
|
}
|
||||||
|
|
||||||
Snapshot[] getSnapshots(string file) {
|
/// Library version string.
|
||||||
Snapshot[] snapshots;
|
///
|
||||||
foreach (dbSnapshot; _db.getSnapshots(file))
|
/// Returns: semantic version of the `cdcdb` library
|
||||||
{
|
|
||||||
snapshots ~= new Snapshot(_db, dbSnapshot);
|
|
||||||
}
|
|
||||||
return snapshots;
|
|
||||||
}
|
|
||||||
|
|
||||||
Snapshot[] findSnapshot(Identifier id) {
|
|
||||||
Snapshot[] snapshots;
|
|
||||||
foreach (dbSnapshot; _db.findSnapshot(id)) {
|
|
||||||
snapshots ~= new Snapshot(_db, dbSnapshot);
|
|
||||||
}
|
|
||||||
return snapshots;
|
|
||||||
}
|
|
||||||
|
|
||||||
bool deleteFile(Identifier id) {
|
|
||||||
return _db.deleteFile(id);
|
|
||||||
}
|
|
||||||
|
|
||||||
bool deleteFile(string name) {
|
|
||||||
return _db.deleteFile(name);
|
|
||||||
}
|
|
||||||
|
|
||||||
bool deleteSnapshot(Identifier id) {
|
|
||||||
return _db.deleteSnapshot(id);
|
|
||||||
}
|
|
||||||
|
|
||||||
string getVersion() const @safe nothrow
|
string getVersion() const @safe nothrow
|
||||||
{
|
{
|
||||||
import cdcdb.version_ : cdcdbVersion;
|
import cdcdb.version_ : cdcdbVersion;
|
||||||
|
|
|
||||||
|
|
@ -1,25 +0,0 @@
|
||||||
module cdcdb.storagefile;
|
|
||||||
|
|
||||||
import cdcdb.snapshot;
|
|
||||||
import cdcdb.lib;
|
|
||||||
import cdcdb.dblite;
|
|
||||||
|
|
||||||
final class StorageFile {
|
|
||||||
private:
|
|
||||||
DBLite _db;
|
|
||||||
DBFile _dbfile;
|
|
||||||
|
|
||||||
public:
|
|
||||||
this(DBLite dblite, DBFile dbfile) { _db = dblite; _dbfile = dbfile; }
|
|
||||||
|
|
||||||
@property ref Identifier id() return { return _dbfile.id; }
|
|
||||||
@property string name() const nothrow @safe { return _dbfile.path; }
|
|
||||||
|
|
||||||
Snapshot[] snapshots() {
|
|
||||||
Snapshot[] snapshots;
|
|
||||||
foreach (dbSnapshot; _db.getSnapshots(_dbfile.id)) {
|
|
||||||
snapshots ~= new Snapshot(_db, dbSnapshot);
|
|
||||||
}
|
|
||||||
return snapshots;
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
@ -1,3 +1,3 @@
|
||||||
module cdcdb.version_;
|
module cdcdb.version_;
|
||||||
|
|
||||||
enum cdcdbVersion = "0.2.0";
|
enum cdcdbVersion = "0.1.1";
|
||||||
|
|
|
||||||
27
test/app.d
27
test/app.d
|
|
@ -3,23 +3,11 @@ import std.stdio : writeln, File;
|
||||||
import std.file : exists, remove, read;
|
import std.file : exists, remove, read;
|
||||||
import zstd : Level;
|
import zstd : Level;
|
||||||
|
|
||||||
import core.thread : Thread, msecs, dur;
|
|
||||||
|
|
||||||
void main()
|
void main()
|
||||||
{
|
{
|
||||||
// Создаем временную базу для примера
|
// Создаем временную базу для примера
|
||||||
string dbPath = "./bin/example.db";
|
string dbPath = "./bin/example.db";
|
||||||
|
|
||||||
if (exists(dbPath)) { remove(dbPath); }
|
|
||||||
|
|
||||||
Context context;
|
|
||||||
|
|
||||||
context.uid = 1000;
|
|
||||||
context.ruid = 1001;
|
|
||||||
context.uidName = "user1";
|
|
||||||
context.ruidName = "user2";
|
|
||||||
context.process = "mcedit";
|
|
||||||
|
|
||||||
// Инициализация Storage с компрессией Zstd
|
// Инициализация Storage с компрессией Zstd
|
||||||
auto storage = new Storage(dbPath, true, Level.speed);
|
auto storage = new Storage(dbPath, true, Level.speed);
|
||||||
|
|
||||||
|
|
@ -31,20 +19,17 @@ void main()
|
||||||
ubyte[] data2 = cast(ubyte[]) "Hello, updated cdcdb!".dup;
|
ubyte[] data2 = cast(ubyte[]) "Hello, updated cdcdb!".dup;
|
||||||
|
|
||||||
// Создание первого снимка
|
// Создание первого снимка
|
||||||
Snapshot snap1 = storage.newSnapshot("example_file", data1, context, "Версия 1.0");
|
auto snap1 = storage.newSnapshot("example_file", data1, "Версия 1.0");
|
||||||
if (snap1)
|
if (snap1)
|
||||||
{
|
{
|
||||||
writeln("Создан снимок с ID: ", snap1.id);
|
writeln("Создан снимок с ID: ", snap1.id);
|
||||||
writeln("Файл: ", snap1.file);
|
writeln("Метка: ", snap1.label);
|
||||||
writeln("Размер: ", snap1.length, " байт");
|
writeln("Размер: ", snap1.length, " байт");
|
||||||
writeln("Статус: ", snap1.status);
|
writeln("Статус: ", snap1.status);
|
||||||
writeln("Время: ", snap1.created);
|
|
||||||
}
|
}
|
||||||
|
|
||||||
Thread.sleep( dur!("msecs")( 50 ) );
|
|
||||||
|
|
||||||
// Создание второго снимка (обновление)
|
// Создание второго снимка (обновление)
|
||||||
auto snap2 = storage.newSnapshot("example_file", data2, context, "Версия 2.0");
|
auto snap2 = storage.newSnapshot("example_file", data2, "Версия 2.0");
|
||||||
if (snap2)
|
if (snap2)
|
||||||
{
|
{
|
||||||
writeln("Создан обновленный снимок с ID: ", snap2.id);
|
writeln("Создан обновленный снимок с ID: ", snap2.id);
|
||||||
|
|
@ -71,9 +56,9 @@ void main()
|
||||||
writeln("Хэш совпадает: ", lastSnap.sha256 == digest!SHA256(restoredData));
|
writeln("Хэш совпадает: ", lastSnap.sha256 == digest!SHA256(restoredData));
|
||||||
}
|
}
|
||||||
|
|
||||||
// Удаление файла
|
// Удаление снимков по метке
|
||||||
if (storage.deleteFile("example_file"))
|
long deleted = storage.removeSnapshots("example_file");
|
||||||
writeln("Файл example_file удален.");
|
writeln("Удалено снимков: ", deleted);
|
||||||
|
|
||||||
// Проверка: снимки удалены
|
// Проверка: снимки удалены
|
||||||
auto remaining = storage.getSnapshots("example_file");
|
auto remaining = storage.getSnapshots("example_file");
|
||||||
|
|
|
||||||
72
test/unittest.d
Normal file
72
test/unittest.d
Normal file
|
|
@ -0,0 +1,72 @@
|
||||||
|
import cdcdb;
|
||||||
|
|
||||||
|
import std.file : read, write, remove, exists;
|
||||||
|
import std.path : buildPath;
|
||||||
|
import std.digest.sha : digest, SHA256;
|
||||||
|
import std.exception : assertThrown, assertNotThrown;
|
||||||
|
import std.datetime : DateTime;
|
||||||
|
import core.thread : Thread;
|
||||||
|
import core.time : msecs, seconds;
|
||||||
|
|
||||||
|
unittest
|
||||||
|
{
|
||||||
|
const string dbPath = "./bin/test_cdcdb.db";
|
||||||
|
|
||||||
|
if (exists(dbPath)) {
|
||||||
|
remove(dbPath);
|
||||||
|
}
|
||||||
|
|
||||||
|
// Тест конструктора Storage
|
||||||
|
auto storage = new Storage(dbPath, true, 22);
|
||||||
|
|
||||||
|
// Тест настройки CDC
|
||||||
|
storage.setupCDC(128, 256, 512, 0xFF, 0x0F);
|
||||||
|
|
||||||
|
// Тест создания снимка
|
||||||
|
ubyte[] data1 = cast(ubyte[]) "Hello, World!".dup;
|
||||||
|
auto snap1 = storage.newSnapshot("test_label", data1, "First snapshot");
|
||||||
|
assert(snap1 !is null);
|
||||||
|
assert(snap1.label == "test_label");
|
||||||
|
assert(snap1.length == data1.length);
|
||||||
|
assert(snap1.sha256 == digest!SHA256(data1));
|
||||||
|
assert(snap1.status == "ready");
|
||||||
|
assert(snap1.description == "First snapshot");
|
||||||
|
|
||||||
|
// Тест дубликата (не должен создать новый)
|
||||||
|
auto snapDup = storage.newSnapshot("test_label", data1);
|
||||||
|
assert(snapDup is null);
|
||||||
|
|
||||||
|
// Тест изменения данных
|
||||||
|
ubyte[] data2 = cast(ubyte[]) "Hello, Changed World!".dup;
|
||||||
|
auto snap2 = storage.newSnapshot("test_label", data2);
|
||||||
|
assert(snap2 !is null);
|
||||||
|
assert(snap2.sha256 == digest!SHA256(data2));
|
||||||
|
|
||||||
|
// Тест восстановления данных
|
||||||
|
auto restored = snap1.data();
|
||||||
|
assert(restored == data1);
|
||||||
|
bool streamedOk = false;
|
||||||
|
snap2.data((const(ubyte)[] chunk) {
|
||||||
|
assert(chunk == data2); // Поскольку маленький файл — один фрагмент
|
||||||
|
streamedOk = true;
|
||||||
|
});
|
||||||
|
assert(streamedOk);
|
||||||
|
|
||||||
|
// Тест getSnapshots
|
||||||
|
auto snaps = storage.getSnapshots("test_label");
|
||||||
|
assert(snaps.length == 2);
|
||||||
|
assert(snaps[0].id == snap1.id);
|
||||||
|
assert(snaps[1].id == snap2.id);
|
||||||
|
|
||||||
|
auto allSnaps = storage.getSnapshots();
|
||||||
|
assert(allSnaps.length == 2);
|
||||||
|
|
||||||
|
// Тест удаления
|
||||||
|
assert(snap1.remove());
|
||||||
|
snaps = storage.getSnapshots("test_label");
|
||||||
|
assert(snaps.length == 1);
|
||||||
|
assert(snaps[0].id == snap2.id);
|
||||||
|
|
||||||
|
// Тест пустых данных
|
||||||
|
assertThrown!Exception(storage.newSnapshot("empty", []));
|
||||||
|
}
|
||||||
Loading…
Add table
Add a link
Reference in a new issue