Главная Новости Прайс-лист О магазине Как купить? Оплата/Доставка Корзина Контакты  
  Авторизация  
 
Логин
Пароль

Регистрация   |   Мой пароль?
 
     
  Покупателю шин  
  Новости  
Banwar

Наша сеть партнеров Banwar. Новое казино "Пари Матч" приглашает всех азартных игроков в мир больших выигрышей и захватывающих развлечений.

  Опрос  
 
Летние шины какого производителя Вы предпочитаете использовать?
 Michelin
 Continental
 GoodYear
 Dunlop
 Nokian
 Fulda
 Bridgestone
 Hankook
 Kumho
 Другие

Всего ответов: 1035
 
     
  Добро пожаловать в наш новый всеукраинский интернет-магазин!  

Методи реплікації в СУБД Informix Dynamic Server

  1. Enterprise Replication (ER)
  2. простий приклад
  3. Кластер високої готовності
  4. Таблиця 1. Огляд характеристик кластерних серверів різного типу
  5. Таблиця 2. Загальні параметри ONCONFIG для різних типів серверів кластера
  6. Підлеглий сервер із загальним диском (SD)
  7. Таблиця 3. Важливі параметри ONCONFIG підлеглого SD-сервера
  8. Додавання до кластеру підлеглого SD-сервера.
  9. Малюнок 1. Кластер: головний сервер і один підлеглий SD-сервер
  10. Таблиця 4. Важливі параметри ONCONFIG для HDR-сервера
  11. Додавання до кластеру HDR-сервера
  12. Малюнок 2. Кластер: головний сервер, один підлеглий SD-сервер і один підлеглий HDR-сервер
  13. Таблиця 5. Важливі параметри ONCONFIG підлеглого RS-сервера
  14. Додавання до кластеру підлеглого RS-сервера
  15. Малюнок 3. Кластер: головний, один підлеглий SD, один підлеглий HDR і один підлеглий RS сервери
  16. Ресурси для скачування

Наша сеть партнеров Banwar

На серверах, в доменах і в кластерах

Enterprise Replication (ER)

Що таке ER?

У базах даних зберігається важлива ділова інформація, і підприємства розуміють, що цю інформацію бажано зберігати як мінімум в двох різних місцях. Чи не правда, було б здорово, якби базі даних можна було доручити зберігати потрібні дані на іншому сервері автоматично? Так ось, починаючи з версії 7, IDS дозволяє це робити - за допомогою нашої гнучкої і потужної технології Enterprise Replication (ER).

Спочатку в ER визначаються сервери, між якими потрібно реплицировать дані. Це призводить до створення топології мережі - з кореневими, листовими і некореневим, нелістовимі вузлами, - по якій будуть передаватися дані. Кожен вузол може являти собою самостійний сервер або серверний кластер, і нижче розглядаються обидва ці випадки. Всі взаємопов'язані вузли разом називаються доменом ER. Домен не визначає, які дані будуть передаватися, - тільки шляху або маршрути, по яких тече потік даних.

Потім ви вирішуєте, які дані слід реплицировать. Це визначається в SQL-запиті, що містить інформацію про сервер, бази даних, таблиці та стовпчиках. Запит працює як фільтр, результат якого визначає реплицируемой дані, і являє собою надзвичайно гнучкий інструмент. Якщо потрібно реплицировать таблицю цілком, запит повинен виглядати так: SELECT * FROM .... Щоб реплицировать перші три стовпці, - так: SELECT column1, column2, column3 FROM .... А щоб реплицировать тільки окремі рядки, достатньо додати в запит умова WHERE. ER може реплицировать дані з дуже широкими або дуже вузькими фільтрами. Для здійснення реплікації ER вимагає, щоб в таблиці був заданий первинний ключ.

Після складання запиту визначаємо, які вузли повинні брати участь в реплікації даних. Припустимо, потрібно, щоб у вузлах А, В і С містилися одні й ті ж дані таблиці Employee. Отже, учасниками будуть A, B і C. ER можна налаштувати так, щоб при зміні даних на будь-якому сервері інші учасники теж оновлювалися. Цей сценарій називається повсюдним оновленням (update anywhere). А якщо потрібно направити потік оновлень від А до В і С, але не навпаки? ER надає і таку можливість за допомогою сценаріїв джерело-ціль (primary-target). У тих ситуаціях, коли зміна даних відбувається більш ніж в одного учасника, може статися, що зміна рядка на сервері В вступить в конфлікт зі зміною на сервері С. ER дозволяє визначити правила автоматичного вирішення подібних конфліктів. У їх числі порівняння міток часу, виконання збережених процедур та ігнорування конфліктів.

Тепер, коли запит, учасники і сценарій відомі, вся ця інформація використовується для створення так званого копіювальника (replicate). Його можна уявити собі як «кран», керуючий потоком даних із запиту. Цей кран можна відкривати або закривати, і таких кранів може бути скільки завгодно. Копіювальників можна групувати, що полегшує управління великою кількістю копіювальників. Крім того, можна використовувати шаблони для прискореного створення копіювальників для різних таблиць. Вся ця робота виконується за допомогою серверної утиліти cdr.

Як же насправді переміщуються дані, коли копировщик створений і запущений? По-перше, реплікація здійснюється асинхронно. Це означає, що може існувати затримка між створенням або зміною даних в одному вузлі і появою їх копії в іншому. І, звичайно, реплицируются тільки дані з завершених транзакцій. ER читає журнали реєстрації логічних подій, перевіряє, чи реплікація для цього запису, і передає цю інформацію відповідним учасникам.

простий приклад

Розглянемо простий приклад ER. Ми репліціруем список співробітників з таблиці бази даних "db1" між серверами server1 і server2 за принципом повсюдного поновлення. (В наступні кроки передбачається, що використовується обліковий запис informix.)

Крок 1: Підготовка файлів SQLHOSTS

Файл для кожного сервера повинен містити запис для обох серверів, а також два визначення. Кожна група відповідає вузлу ER:

grp1 group - - i = 1 server1 onsoctcp host port g = grp1 grp2 group - - i = 2 server2 onsoctcp host port g = grp2

Крок 2: Підготовка дискового простору ER

Для кожного сервера виконаємо наступні кроки:

  1. Редагування ONCONFIG з метою включення smart blob-простору: CDR_QDATA_SBSPACES sbs1
  2. Запуск сервера.
  3. Створення ділянки пам'яті для цього smart blob-простору і додавання простору до сервера. Наприклад, в UNIX: touch / ids / chunks / sbs1_chunk1 chmod 660 / ids / chunks / sbs1_chunk1 onspaces -c -S sbs1 -p / ids / chunks / sbs1_chunk1 -s 100000 -o 0

Крок 3: Додавання вузлів до нового домену ER

На сервері server1 виконаємо наступну команду:

cdr define server --init grp1

На сервері server2 виконаємо наступну команду:

cdr define server --sync = grp1 --init grp2

Ці команди створюють домен ER з двох кореневих вузлів.

Крок 4: Підготовка таблиці до реплікації

На обох серверах server1 і server2 виконаємо наступні оператори SQL:

CREATE DATABSE db1 WITH LOG; CREATE TABLE employees (id int primary key, ...);

Крок 5: Створення копіювальника

На server1 виконаємо:

cdr define replicate --conflict = ignore r_employees \ "db1 @ grp1: informix.employees" "select * from employees" \ "db1 @ grp2: informix.employees" "select * from employees"

Крок 6: Запуск копіювальника

На кожному сервері виконаємо:

cdr start replicate r_employees

Тепер наші дані реплікуються! Вставка, зміна або видалення рядка на будь-якому з серверів server1 або server2 незабаром відбивається на іншому сервері. Але це тільки початок використання ER. Щоб краще вивчити технологію і корисні команди, звертайтеся до розділу "Реплікація" IDS InfoCenter (див. ресурси ).

Кластер високої готовності

Починаючи з версії 11.1, IDS містить засоби реплікації на основі кластера. Кластер створює можливості для нарощування продуктивності, забезпечення високої готовності, аварійного захисту і вирівнювання навантаження. Ця технологія вбудована прямо в базу даних і не вимагає додаткового обладнання, програмного забезпечення або мережевої інфраструктури. На відміну від ER, в кластері не можна управляти деталізацією реплицируемой даних; завжди реплицируются всі дані сервера. Технології кластера і ER, як показано нижче, можна використовувати одночасно.

Кластер складається з головного сервера і підлеглих серверів трьох різних типів:

  1. Підлеглий сервер із загальним диском (Shared Disk - SD)
  2. Сервер реплікації даних високої готовності (High-Availability Data Replication - HDR)
  3. Віддалений самостійний (Remote Standalone - RS) підлеглий сервер

Сервери повинні мати одну і ту ж версію IDS і працювати на тій же операційній системі, тому ж обладнанні і з тією ж архітектурою дискової пам'яті. У версії 11.1 додатків на підлеглих серверах дозволяється тільки зчитувати дані. У версії 11.5 вони можуть також вставляти, змінювати і видаляти дані. Таким чином, всі три типи підлеглих серверів можна використовувати як для нарощування ємності головного сервера, так і для вирівнювання навантаження. У таблиці 1 наводиться порівняння типів серверів. У таблиці 2 перераховані деякі типові параметри налаштування файлу ONCONFIG.

Таблиця 1. Огляд характеристик кластерних серверів різного типу

Головний Підлеглий SD HDR Підлеглий RS Перша версія IDS
11.1 6.00 11.1 Основне призначення
Підвищена ємність / нарощування Висока готовність / гарячий резерв Аварійний захист / віддалену копію Максимальна кількість вузлів на кластер Один Не обмежено Один Не обмежено Можливі зміни за один крок Підлеглий SD, HDR, стандартний Головний Головний, підлеглий RS, стандартний HDR, стандартний Підтримувані рівні локалізації все Dirty read, Committed Read, Committed Read Last Committed Dirty read Dirty read

Таблиця 2. Загальні параметри ONCONFIG для різних типів серверів кластера

Параметр конфігурації Тип сервера Підтримувані значення Опис HA_ALIAS Підлеглі SD- і RS-сервери DBSERVERNAME або одне з імен DBSERVERALIAS. Повинен бути мережевим протоколом. Застосовується для визначення імені, по якому підлеглий сервер відомий всередині кластера. Надає гнучкість, дозволяючи використовувати не тільки DBSERVERNAME. LOG_INDEX_BUILDS Головний, HDR і підлеглий RS-сервер 0 - Бажана реєстрація сторінок індексу.
1 - Дозвіл реєстрації сторінок індексу. При створенні нового індексу на головному сервері функція реєстрації сторінок індексу (Index Page Logging - IPL) реєструє сторінки індексу в файлі реєстрації логічних подій. Дозвіл реєстрації індексних сторінок потрібно для вузлів RSS і необов'язково для підлеглого HDR-сервера. REDIRECTED_WRITES HDR і підлеглі SD- і RS-сервери 0 - Запис в підлеглий сервер заборонена.
> = 1 - Запис в підлеглий сервер дозволена. Визначає число використовуваних мережевих з'єднань між головним і підлеглим серверами для підтримки оновлення даних. TEMPTAB_NOLOG Головний, HDR і підлеглі сервери SD і RS 0 - Створення тимчасових таблиць з дозволеною за замовчуванням реєстрацією
1 - Створення тимчасових таблиць без реєстрації. Повинен бути встановлений в 1 для HDR, RSS і підлеглого SD-сервера. Управляє режимом реєстрації за замовчуванням для спеціальних тимчасових таблиць, створених за допомогою операторів CREATE TEMP TABLE і SELECT INTO TEMP. Підлеглі сервери не повинні реєструвати тимчасові таблиці.

Розберемо ці типи серверів докладніше. Досліджуємо їх характеристики, параметри ONCONFIG і по ходу справи побудуємо кластер з сервером кожного типу.

Підлеглий сервер із загальним диском (SD)

Підлеглі SD-сервери поділяють загальний дисковий простір - за винятком тимчасових просторів dbspaces - з головним сервером. Зазвичай це робиться за допомогою мережевої кластерної файлової системи. Якщо загальний диск підготовлений, додавання до кластеру нового підлеглого SD-сервера здійснюється надзвичайно легко, за кілька секунд. Так як підлеглі SD-вузли використовують диски головного сервера і можуть додаватися легко і швидко, вони добре підходять для сценаріїв нарощування ємності. Контрольні точки підлеглих SD-серверів синхронізовані. Це означає, що копіювання в контрольних точках головного сервера завершується тільки після закінчення копіювання в контрольних точках SD-сервера. Починаючи з версії IDS 11.5, підлеглий SD-сервер підтримує рівні локалізації фіксації committed read і committed read last, а також недійсний результат читання. Підлеглий SD-сервер можна приписати головного сервера єдиною командою: onmode -d make primary <name of SD server>. Так як підлеглий SD-сервер настільки близький до головного (іншими словами, він розділяє з ним спільний диск), часто це найкращий тип сервера для первісної обробки відмов головного сервера (таблиця 3).

Таблиця 3. Важливі параметри ONCONFIG підлеглого SD-сервера

Параметр конфігурації Тип сервера Підтримувані значення Опис SDS_ENABLE Головний, підлеглий SD 0 - Забороняє функціональність SDS
1 - Дозволяє функціональність SDS Застосовується для вирішення додавання в кластер підлеглих SD-серверів. SDS_PAGING Підлеглий SD <абсолютний шлях до файлу підкачки file1>, <абсолютний шлях до файлу підкачки file 2> Для додавання вузла SDS потрібно конфігурувати два файли підкачки. SDS_TEMPDBS Підлеглий SD <dbspace_name>, <path>, <pagesize in KB>, <offset in KB>, <size in KB> Тимчасова інформація dbspace для підлеглого вузла SD. Можна настроїти до 16 записів SDS_TEMPDBS.
приклад:
SDS_TEMPDBS sdstmpdbs1, / work / dbspaces / sdstmpdbs1,2,0,16000 SDS_TIMEOUT Primary> = 0 секунд Цей параметр конфігурації використовується головним вузлом для прийняття рішення про те, як довго чекати підтвердження від SD-сервера. При відсутності підтвердження головний сервер вимикає SD-сервер. Значення за замовчуванням становить 20 с.

Додавання до кластеру підлеглого SD-сервера.

Візьмемо самостійний сервер IDS і перетворимо його в кластер. Спочатку додамо підлеглий SD-сервер. (Цей сценарій передбачає, що вже встановлена ​​файлова система з розділяються диском, і використовується обліковий запис Informix.)

Крок 1: Підготовка файлу SQLHOSTS

Файл SQHOSTS як в головному, так і в SDS вузлах повинен мати запис для іншого сервера:

g_mach11 group - - i = 10 myprim ontlitcp primhost prim_port g = g_mach11 sds1 ontlitcp sds1host sds1_port g = g_mach11

Зауважимо, що в даному випадку не обов'язково використовувати групи. Однак ми включили їх, щоб підготуватися до наступного прикладу.

Крок 2: Налаштування головного сервера в якості власника загального диска

На головному сервері виконаємо:

onmode -d set SDS primary myprim

Крок 3: Конфігурування підлеглого SD-сервера

  1. Наступні параметри ONCONFIG повинні збігатися з параметрами головного сервера: ROOTNAME, ROOTPATH, ROOTOFFSET, ROOTSIZE, PHYSDBS, PHYSFILE, LOGFILES і LOGSIZE.
  2. Встановимо SDS_ENABLE в 1.
  3. Сконфігуріруем SDS_PAGING і SDS_TEMPDBS.

наприклад:

SDS_ENABLE 1 SDS_PAGING / ids / sds / dbspaces / page_1, / ids / sds / dbspaces / page_2 SDS_TEMPDBS sdstmpdbs1, / ids / sds / dbspaces / sdstmpdbs1,2,0,16000 REDIRECTED_WRITES 1 TEMPTAB_NOLOG 1

Крок 4: Запуск підлеглого SD-сервера

oninit

Підлеглий сервер заробив! Стан кластера можна перевірити за допомогою команди onstat -g sds як на головному, так і на підпорядкованому серверах. Ось як виглядає наш кластер (рисунок 1)

Малюнок 1. Кластер: головний сервер і один підлеглий SD-сервер
На серверах, в доменах і в кластерах   Enterprise Replication (ER)   Що таке ER

Реплікація даних для забезпечення високої готовності (HDR)

Реплікація даних для забезпечення високої готовності (High-Availability Data Replication - HDR) - це найстаріша технологія реплікації в IDS. Вона складається з пари серверів - головного і підлеглого HDR - і підтримує як синхронний, так і асинхронний режими реплікації. У синхронному режимі транзакції на головному сервері не виконуються, поки він не отримає підтвердження від підлеглого HDR-сервера. Таким чином, підлеглий HDR-сервер негайно готовий зайняти місце головного сервера - це так званий "гарячий" резерв. В асинхронному режимі синхронізація між головним і підлеглим серверами здійснюється тільки в контрольних точках. Одне з властивостей HDR полягає в тому, що він використовує напівдуплексний протокол зв'язку, і тому чутливий до затримки мережі. Для підлеглих серверів SD і RS це не так (таблиця 4).

Таблиця 4. Важливі параметри ONCONFIG для HDR-сервера

Параметр конфігурації Тип сервера Підтримувані значення Опис DRAUTO Головний, HDR-сервер 0 - Ручна.
1 - При автоматичній обробці відмов типи серверів зберігаються.
2 - При автоматичній обробці відмов типи серверів змінюються.
3 - Обробкою відмов управляє Connection Manager Arbitrator. Керує поведінкою головного і підлеглого серверів в разі відмови. DRIDXAUTO Головний сервер, HDR-сервер 0 - Забороняє автоматичне відновлення індексу.
1 - Дозволяє автоматичне відновлення індексу. Автоматичне відновлення індексу в разі виявлення пошкодження підлеглим сервером HDR. DRINTERVAL Головний -1 - Робота в синхронному режимі.
> = 0 - Робота в асинхронному режимі. Максимальний інтервал часу в секундах між очищеннями буфера реплікації даних високої готовності. DRLOSTFOUND Головний, HDR-сервер <шлях до файлу втрачених і знайдених транзакцій> Шлях до файлу втрачених і знайдених транзакцій. Цей файл створюється при обробці відмов і містить транзакції, виконані в головному, але не в підпорядкованому HDR-сервері. DRTIMEOUT Головний> = 0 с.
Значення за замовчуванням = 30 с. Час в секундах до тайм-ауту мережі. Використовується в DRAUTO для виявлення обробки відмови.

Додавання до кластеру HDR-сервера

Тепер додамо до нашого кластеру підлеглий HDR-вузол.

Крок 1: Підготовка файлів SQLHOSTS

Оновлення файлу SQLHOSTS на головному сервері і підлеглих SDS- і HDR-серверах:

g_mach11 group - - i = 10 myprim ontlitcp primhost prim_port g = g_mach11 hdr ontlitcp hdrhost hdr_port g = g_mach11 sds1 ontlitcp sds1host sds1_port g = g_mach11

Крок 2: Конфігурація файлів ONCONFIG

Для роботи HDR певні параметри файлу ONCONFIG на головному і підлеглих серверах повинні бути в точності однаковими. У багатьох випадках це означає, що їх не можна змінювати, поки працює один з серверів. У число цих параметрів входять: DRAUTO, DRINTERVAL, DRTIMEOUT, параметри, які стосуються root dbspace, параметри, які стосуються журналам реєстрації логічних подій та ін. Щоб гарантувати відповідність цих параметрів, можна скопіювати файл onconfig з головного сервера в підлеглий, а потім змінити те , що потрібно, наприклад, DBSERVERNAME. Перед запуском головного сервера потрібно мати план цих параметрів. У цьому прикладі просто використовуються повернуться до стандартних значень.

Крок 3: Створення резервних копій з головного сервера

Виконаємо резервне копіювання нульового рівня на головному сервері:

ontape -s -L 0

Крок 4: Реєстрація підлеглого HDR-сервера на головному

На підпорядкованому сервері виконаємо:

onmode -d primary hdr

Крок 5: Підготовка диска підлеглого HDR-сервера

Дисковий простір, що використовується підлеглим HDR-сервером і головним сервером, має збігатися (наприклад, за кількістю областей dbspace, числу chunk-файлів, розміром chunk-файлів, імені шляху і зміщення). Так як в даному прикладі резервне копіювання використовується для відновлення підлеглого HDR-сервера, необхідно лише, щоб chunk-файли існували і мали потрібні дозволи.

Крок 6: Відновлення резервної копії на підпорядкованому HDR-сервері

На HDR-сервері виконаємо фізичне відновлення резервної копії рівня 0:

ontape -p Буде задано три питання. Відповіді наведені нижче: Continue restore (продовжувати відновлення)? (Y / n) y Do you want to back up the logs (Виконати резервне копіювання логів)? (Y / n) n Restore a level 1 archive (відновити архів рівня 1)? (Y / n) n

Крок 7: Переклад підлеглого HDR-сервера в робочий режим

По завершенні процесу відновлення підлеглий HDR-сервер знаходиться в режимі відновлення. Виконаємо наступну команду:

onmode -d secondary myprim

Підлеглій HDR-сервер зароб! Виконаємо команду onstat -g dri на головному і HDR-серверах, щоб перевірити статус HDR. Тепер наш кластер виглядає так (малюнок 2).

Малюнок 2. Кластер: головний сервер, один підлеглий SD-сервер і один підлеглий HDR-сервер

Віддалений самостійний підлеглий (RS) сервер

Основне призначення підлеглого RS-сервера полягає в забезпеченні аварійного захисту. Як і в разі HDR, головний сервер безперервно передає підлеглому RS-сервера всі записи свого журналу реєстрації логічних подій, тільки тепер в асинхронному режимі. На відміну від HDR, зв'язок здійснюється з використанням дуплексного протоколу. Тому підлеглий RS-сервер менше чутливий до затримок в мережі, і його простіше розміщувати в віддаленому місці. Одна особливість підлеглого RS-сервера полягає в тому, що на відміну від SD- і HDR-серверів, головний сервер не синхронізує свої контрольні точки з підлеглим RS-сервером. Тому він не готовий зайняти місце головного сервера негайно; спочатку його потрібно перетворити в HDR-сервер. Однак в разі декількох відмов в кластері RS-вузол може запобігти повній недоступність бази даних (таблиця 5).

Таблиця 5. Важливі параметри ONCONFIG підлеглого RS-сервера

Параметри конфігурації Тип сервера Підтримувані значення Опис LOG_INDEX_BUILDS Головний 0 - Забороняє реєстрацію сторінок індексу
1 - Дозволяє реєстрацію сторінок індексу При створенні нового індексу на головному сервері функція реєстрації сторінок індексу (Index Page Logging-IPL) записує сторінки індексу в файл реєстрації логічних подій. Щоб додати в кластер RS-сервер, потрібно дозволити реєстрацію сторінок індексу на головному сервері.

Додавання до кластеру підлеглого RS-сервера

Додамо до нашого кластеру вузол RS.

Крок 1: Підготовка файлів SQLHOSTS

Всі сервери кластера повинні мати записи SQLHOSTS для кожного з решти серверів.

g_mach11 group - - i = 10 myprim ontlitcp primhost prim_port g = g_mach11 hdr ontlitcp hdrhost hdr_port g = g_mach11 sds1 ontlitcp sds1host sds1_port g = g_mach11 rss1 ontlitcp rss1host rss1_port g = g_mach11

Крок 2: Дозвіл реєстрації сторінок індексу на головному сервері

onmode -wf LOG_INDEX_BUILDS = 1

Крок 3: Реєстрація нового підлеглого RS-сервера на головному сервері

onmode -d add RSS rss1

Крок 4: Створення резервних копій рівня 0 головного сервера

ontape -s -L 0

Крок 5: Відновлення резервної копії на підпорядкованому RS-сервері

ontape -p Буде задано три питання. Відповідаємо, як показано нижче: Continue restore (продовжувати відновлення)? (Y / n) y Do you want to back up the logs (Чи потрібно копіювати логи)? (Y / n) n Restore a level 1 archive (Відновити архів рівня 1)? (Y / n) n

Крок 6: Переклад підлеглого RS-сервера в робочий режим

onmode -d RSS myprim

Вузол RSS заробив! Виконаємо команду onstat -g rss, щоб перевірити статус вузла RSS на головному і RSS вузлах. Тепер наш кластер виглядає так (малюнок 3).

Малюнок 3. Кластер: головний, один підлеглий SD, один підлеглий HDR і один підлеглий RS сервери

Висновок

З цієї статті ви дізналися про гнучкість асинхронної реплікації із застосуванням ER і функцій високої готовності кластера. А якщо потрібно застосувати і те, і інше разом? Це теж можливо! Пам'ятайте, як ми використовували поняття "групи" для файлів кластера SQLHOSTS? Та ж група може стати вузлом ER, як server1 і server2 з наведеного в статті приклад. Для додавання кластера в якості вузла в домен ER використовуйте ту ж команду, що і для додавання окремого сервера: cdr define server --sync = <sync node> --init <name of new group to add>. Якщо вузлом ER служить кластер, головний сервер виконує ті ж функції, що і вузол, що складається з окремого сервера. Однак так як це кластер, головний сервер реплицирует дані і в усі свої підлеглі сервери.

Тепер можна більш детально вивчити кожну з цих окремих технологій, способи їх спільного використання для вдосконалення свого підприємства і супутні технології, такі як Connection Manager і Continuous Log Restore! Ми пропонуємо вам більше дізнатися про IDS!

Ресурси для скачування

Схожі тими

  • Replication technologies in Informix Dynamic Server (EN) : Оригінал статті.
  • IDS 11.5 InfoCenter : Відвідайте бібліотеку офіційної документації по IDS (EN).
  • " Availability Solutions with Informix Dynamic Server 11 (EN) "(IBM, May 2007): про функції високої готовності IDS 11, які можна комбінувати один з одним відповідно до бізнес-вимог і швидко і легко розширювати і переконфігурувати. (PDF)
  • " What's new in IDS 11? (EN) "(DeveloperWorks, June 2007): довідник по новим функціям IDS 11. Наводяться різні аспекти IDS, такі як масштабованість, висока готовність і продуктивність, інтегровані рішення і безадміністратівная зона.
  • Informix Dynamic Server : Завантажте безкоштовну ознайомлювальну версію IDS. (EN)
  • Informix developerWorks: статті, керівництва та посилання на інші ресурси для поглибленого вивчення Informix. (EN)
  • розділ Information management сайту developerWorks: дізнайтеся більше про програмні рішення IBM сімейства Information Management. У цьому розділі ви знайдете технічну документацію, статті, навчальні та завантажувальні матеріали, а також відомості про продукти та ін.

Підпішіть мене на ПОВІДОМЛЕННЯ до коментарів

Чи не правда, було б здорово, якби базі даних можна було доручити зберігати потрібні дані на іншому сервері автоматично?
А якщо потрібно направити потік оновлень від А до В і С, але не навпаки?
Як же насправді переміщуються дані, коли копировщик створений і запущений?
Відповіді наведені нижче: Continue restore (продовжувати відновлення)?
Y / n) y Do you want to back up the logs (Виконати резервне копіювання логів)?
Y / n) n Restore a level 1 archive (відновити архів рівня 1)?
Відповідаємо, як показано нижче: Continue restore (продовжувати відновлення)?
Y / n) y Do you want to back up the logs (Чи потрібно копіювати логи)?
Y / n) n Restore a level 1 archive (Відновити архів рівня 1)?
А якщо потрібно застосувати і те, і інше разом?
 
  Обзор категорий  
 
Шины
 
     
 
  Специальное предложение  
   
     
     
Доставка осуществляется в города:
Александрия, Белая Церковь, Белгород-Днестровский, Бердичев, Бердянск, Борисполь, Боярка, Бровары, Бердичев, Васильков, Винница, Вознесенск, Горловка, Днепродзержинск, Днепропетровск, Донецк, Житомир, Запорожье, Евпатория, Ивано-Франковск, Измаил, Изюм, Каменец-Подольский, Керч, Кировоград, Ковель, Комсомольск, Конотоп, Краматорск, Кривой Рог, Кременчуг, Ильичевск, Луганск, Лубны, Луцк, Львов, Павлоград, Мариуполь, Миргород, Мелитополь, Мукачево, Николаев, Нежин, Никополь, Новая Каховка, Новоград - Волынский, Нововолынск, Одесса, Обухов, Павлоград, Пирятин, Прилуки, Полтава, Первомайск, Ровно, Славянск, Симферополь, Смела, Стрий, Сумы, Севастополь, Северодонецк, Тернополь, Ужгород, Умань, Харьков, Хмельницкий, Херсон, Феодосия, Чернигов, Черновцы, Южноукраинск, Ялта.

© 2009 - 2010 Интернет-магазин автотоваров и запчастей авто34

Каталог украинских интернет-магазинов