]> git.decadent.org.uk Git - dak.git/blobdiff - dak/clean_suites.py
Show correct actions while processing NEW queue
[dak.git] / dak / clean_suites.py
index c5b06261309e9fc91996d7c6cae8c52a4d1a78a9..e7808ec9c77cb0dbbb5f4eabd3fd918841de5e9e 100755 (executable)
@@ -64,7 +64,7 @@ Clean old packages from suites.
 
 ################################################################################
 
-def check_binaries(now_date, delete_date, max_delete, session):
+def check_binaries(now_date, session):
     print "Checking for orphaned binary packages..."
 
     # Get the list of binary packages not in a suite and mark them for
@@ -106,7 +106,7 @@ def check_binaries(now_date, delete_date, max_delete, session):
 
 ########################################
 
-def check_sources(now_date, delete_date, max_delete, session):
+def check_sources(now_date, session):
     print "Checking for orphaned source packages..."
 
     # Get the list of source packages not in a suite and not used by
@@ -137,7 +137,8 @@ def check_sources(now_date, delete_date, max_delete, session):
           OR EXISTS (SELECT 1 FROM files_archive_map af_bin
                               JOIN binaries b ON af_bin.file_id = b.file
                              WHERE b.source = df.source
-                               AND af_bin.archive_id = af.archive_id)
+                               AND af_bin.archive_id = af.archive_id
+                               AND af_bin.last_used > ad.delete_date)
           OR EXISTS (SELECT 1 FROM extra_src_references esr
                          JOIN bin_associations ba ON esr.bin_id = ba.bin
                          JOIN binaries b ON ba.bin = b.id
@@ -147,6 +148,7 @@ def check_sources(now_date, delete_date, max_delete, session):
           AS in_use
       FROM files_archive_map af
       JOIN dsc_files df ON af.file_id = df.file
+      JOIN archive_delete_date ad ON af.archive_id = ad.archive_id
       GROUP BY af.archive_id, af.file_id, af.component_id
     )
 
@@ -170,7 +172,7 @@ def check_sources(now_date, delete_date, max_delete, session):
 
 ########################################
 
-def check_files(now_date, delete_date, max_delete, session):
+def check_files(now_date, session):
     # FIXME: this is evil; nothing should ever be in this state.  if
     # they are, it's a bug.
 
@@ -197,7 +199,7 @@ def check_files(now_date, delete_date, max_delete, session):
     if not Options["No-Action"]:
         session.commit()
 
-def clean_binaries(now_date, delete_date, max_delete, session):
+def clean_binaries(now_date, session):
     # We do this here so that the binaries we remove will have their
     # source also removed (if possible).
 
@@ -210,16 +212,17 @@ def clean_binaries(now_date, delete_date, max_delete, session):
        USING files f
        WHERE f.id = b.file
          AND NOT EXISTS (SELECT 1 FROM files_archive_map af
+                                  JOIN archive_delete_date ad ON af.archive_id = ad.archive_id
                                  WHERE af.file_id = b.file
-                                   AND (af.last_used IS NULL OR af.last_used >= :delete_date))
+                                   AND (af.last_used IS NULL OR af.last_used > ad.delete_date))
       RETURNING f.filename
-    """, {'delete_date': delete_date})
+    """)
     for b in q:
         Logger.log(["delete binary", b[0]])
 
 ########################################
 
-def clean(now_date, delete_date, max_delete, session):
+def clean(now_date, archives, max_delete, session):
     cnf = Config()
 
     count = 0
@@ -249,8 +252,9 @@ def clean(now_date, delete_date, max_delete, session):
          USING files f
          WHERE source.file = f.id
            AND NOT EXISTS (SELECT 1 FROM files_archive_map af
+                                    JOIN archive_delete_date ad ON af.archive_id = ad.archive_id
                                    WHERE af.file_id = source.file
-                                     AND (af.last_used IS NULL OR af.last_used >= :delete_date))
+                                     AND (af.last_used IS NULL OR af.last_used > ad.delete_date))
         RETURNING source.id AS id, f.filename AS filename
       ),
       deleted_dsc_files AS (
@@ -259,12 +263,11 @@ def clean(now_date, delete_date, max_delete, session):
       ),
       now_unused_source_files AS (
         UPDATE files_archive_map af
-           SET last_used = :delete_date -- Kill it now. We waited long enough before removing the .dsc.
+           SET last_used = '1977-03-13 13:37:42' -- Kill it now. We waited long enough before removing the .dsc.
          WHERE af.file_id IN (SELECT file_id FROM deleted_dsc_files)
            AND NOT EXISTS (SELECT 1 FROM dsc_files df WHERE df.file = af.file_id)
       )
-      SELECT filename FROM deleted_sources""",
-                        {'delete_date': delete_date})
+      SELECT filename FROM deleted_sources""")
     for s in q:
         Logger.log(["delete source", s[0]])
 
@@ -272,11 +275,15 @@ def clean(now_date, delete_date, max_delete, session):
         session.commit()
 
     # Delete files from the pool
-    old_files = session.query(ArchiveFile).filter(ArchiveFile.last_used <= delete_date).join(Archive)
+    old_files = session.query(ArchiveFile).filter('files_archive_map.last_used <= (SELECT delete_date FROM archive_delete_date ad WHERE ad.archive_id = files_archive_map.archive_id)').join(Archive)
     if max_delete is not None:
         old_files = old_files.limit(max_delete)
         print "Limiting removals to %d" % max_delete
 
+    if archives is not None:
+        archive_ids = [ a.archive_id for a in archives ]
+        old_files = old_files.filter(ArchiveFile.archive_id.in_(archive_ids))
+
     for af in old_files:
         filename = af.path
         if not os.path.exists(filename):
@@ -330,7 +337,7 @@ def clean(now_date, delete_date, max_delete, session):
 
 ################################################################################
 
-def clean_maintainers(now_date, delete_date, max_delete, session):
+def clean_maintainers(now_date, session):
     print "Cleaning out unused Maintainer entries..."
 
     # TODO Replace this whole thing with one SQL statement
@@ -358,7 +365,7 @@ SELECT m.id, m.name FROM maintainer m
 
 ################################################################################
 
-def clean_fingerprints(now_date, delete_date, max_delete, session):
+def clean_fingerprints(now_date, session):
     print "Cleaning out unused fingerprint entries..."
 
     # TODO Replace this whole thing with one SQL statement
@@ -414,6 +421,24 @@ def clean_empty_directories(session):
 
 ################################################################################
 
+def set_archive_delete_dates(now_date, session):
+    session.execute("""
+        CREATE TEMPORARY TABLE archive_delete_date (
+          archive_id INT NOT NULL,
+          delete_date TIMESTAMP NOT NULL
+        )""")
+
+    session.execute("""
+        INSERT INTO archive_delete_date
+          (archive_id, delete_date)
+        SELECT
+          archive.id, :now_date - archive.stayofexecution
+        FROM archive""", {'now_date': now_date})
+
+    session.flush()
+
+################################################################################
+
 def main():
     global Options, Logger
 
@@ -424,6 +449,7 @@ def main():
             cnf["Clean-Suites::Options::%s" % (i)] = ""
 
     Arguments = [('h',"help","Clean-Suites::Options::Help"),
+                 ('a','archive','Clean-Suites::Options::Archive','HasArg'),
                  ('n',"no-action","Clean-Suites::Options::No-Action"),
                  ('m',"maximum","Clean-Suites::Options::Maximum", "HasArg")]
 
@@ -444,24 +470,31 @@ def main():
     if Options["Help"]:
         usage()
 
-    Logger = daklog.Logger("clean-suites", debug=Options["No-Action"])
+    program = "clean-suites"
+    if Options['No-Action']:
+        program = "clean-suites (no action)"
+    Logger = daklog.Logger(program, debug=Options["No-Action"])
 
     session = DBConn().session()
 
-    now_date = datetime.now()
+    archives = None
+    if 'Archive' in Options:
+        archive_names = Options['Archive'].split(',')
+        archives = session.query(Archive).filter(Archive.archive_name.in_(archive_names)).all()
+        if len(archives) == 0:
+            utils.fubar('Unknown archive.')
 
-    # Stay of execution; default to 1.5 days
-    soe = int(cnf.get('Clean-Suites::StayOfExecution', '129600'))
+    now_date = datetime.now()
 
-    delete_date = now_date - timedelta(seconds=soe)
+    set_archive_delete_dates(now_date, session)
 
-    check_binaries(now_date, delete_date, max_delete, session)
-    clean_binaries(now_date, delete_date, max_delete, session)
-    check_sources(now_date, delete_date, max_delete, session)
-    check_files(now_date, delete_date, max_delete, session)
-    clean(now_date, delete_date, max_delete, session)
-    clean_maintainers(now_date, delete_date, max_delete, session)
-    clean_fingerprints(now_date, delete_date, max_delete, session)
+    check_binaries(now_date, session)
+    clean_binaries(now_date, session)
+    check_sources(now_date, session)
+    check_files(now_date, session)
+    clean(now_date, archives, max_delete, session)
+    clean_maintainers(now_date, session)
+    clean_fingerprints(now_date, session)
     clean_empty_directories(session)
 
     session.rollback()