<html>
  <head>

    <meta http-equiv="content-type" content="text/html; charset=utf-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    Friends,<br>
    I have a client with Cyrus 2.5.10 installed.  Last year we migrated
    their old 2.3.18 system to 2.5.10, with an eye towards an eventual
    move to 3.0.x.  Based on Bron's most excellent email of last year,
    ([Subject: Cyrus database and file usage data] from Cyrus Devel of 8
    January 2016) we used a tiered layout for the storage:<br>
    <br>
    The main categories are:<br>
    <ul>
      <li>Config directory (ssd) [/var/lib/imap]<br>
      </li>
      <ul>
        <li>sieve</li>
        <li>seen</li>
        <li>sub</li>
        <li>quota</li>
        <li>mailboxes.db</li>
        <li>annotations.db</li>
      </ul>
      <li>Ephemeral [/var/run/cyrus -- in tmpfs]<br>
      </li>
      <ul>
        <li>tls_sessions.db</li>
        <li>deliver.db</li>
        <li>statuscache.db</li>
        <li>proc (directory)</li>
        <li>lock (directory)<br>
        </li>
      </ul>
      <li>Mailbox data [typical 2.5.X usage]<br>
      </li>
      <ul>
        <li>Meta-data (ssd)<br>
        </li>
        <ul>
          <li>header</li>
          <li>index</li>
          <li>cache</li>
          <li>expunge</li>
          <li>squat (search index)</li>
          <li>annotations</li>
        </ul>
        <li>Spool data (disk: raidX)<br>
        </li>
        <ul>
          <li>messages (rfc822 blobs)</li>
        </ul>
      </ul>
    </ul>
    We sized the Fast SSD pool (this is three-drive mirrors on ZFS) to
    be extra large, so it could eventually handle "Hot" data, and left
    about 300GB free there.  Data, on spinning media, is currently
    5.74TB with 4.8TB free (RAID10).  Metadata is 35GB and /var/lib/imap
    is 8GB, all of which is in the Fast pool.<br>
    <br>
    Now the client is ready to take the dive into v3.0, and I'm trying
    to figure out how to put "archive" operation in effect.<br>
    <br>
    I have read the documentation (hell, I wrote most of it) and
    understand the settings, but what I cannot quite wrap my brain
    around is this: There is already all of this data sitting in all of
    these data partitions (we use a total of 34 separate partitions each
    for data & metadata) so how do I make the transition to separate
    archive partitions, since all that data is on the "slow" drives? 
    Can I just reassign all of the current data partitions to
    archivedata partitions, define the new set of "Hot" data partitions
    on the Fast pool, and let 'er rip, or what?<br>
    <br>
    I promise, if you tell me, I'll write it up as real documentation.
    :-)<br>
    <br>
    Cheers,<br>
        -nic<br>
    <pre class="moz-signature" cols="72">-- 
Nic Bernstein                             <a class="moz-txt-link-abbreviated" href="mailto:nic@onlight.com">nic@onlight.com</a>
Onlight, Inc.                             <a class="moz-txt-link-abbreviated" href="http://www.onlight.com">www.onlight.com</a>
6525 W Bluemound Road, Suite 24           v. 414.272.4477
Milwaukee, Wisconsin  53213-4073
</pre>
  </body>
</html>