]> git.decadent.org.uk Git - dak.git/blobdiff - dak/clean_suites.py
Merge branch 'merge'
[dak.git] / dak / clean_suites.py
index 3445f5d45c8389fbca6c5726b6a463f85879f5e0..dc4f019722dcdefc5267b49b485715a2906d0937 100755 (executable)
@@ -74,7 +74,7 @@ SELECT b.file, f.filename FROM binaries b, files f
 
     # Check for any binaries which are marked for eventual deletion
     # but are now used again.
-      
+
     q = session.execute("""
 SELECT b.file, f.filename FROM binaries b, files f
    WHERE f.last_used IS NOT NULL AND f.id = b.file
@@ -86,7 +86,7 @@ SELECT b.file, f.filename FROM binaries b, files f
     session.commit()
 
 ########################################
-  
+
 def check_sources(now_date, delete_date, max_delete, session):
     print "Checking for orphaned source packages..."
 
@@ -142,7 +142,7 @@ SELECT f.id, f.filename FROM source s, files f, dsc_files df
     ####      reinstate sources because of them
 
     for i in q.fetchall():
-        Logger.log(["unset lastused", i[1]]) 
+        Logger.log(["unset lastused", i[1]])
         session.execute("UPDATE files SET last_used = NULL WHERE id = :fileid",
                         {'fileid': i[0]})
 
@@ -167,9 +167,9 @@ SELECT id, filename FROM files f
 
     ql = q.fetchall()
     if len(ql) > 0:
-        print "WARNING: check_files found something it shouldn't"
+        utils.warn("check_files found something it shouldn't")
         for x in ql:
-            print x
+            utils.warn("orphaned file: %s" % x)
             Logger.log(["set lastused", x[1], "ORPHANED FILE"])
             session.execute("UPDATE files SET last_used = :lastused WHERE id = :fileid",
                             {'lastused': now_date, 'fileid': x[0]})
@@ -209,21 +209,20 @@ def clean(now_date, delete_date, max_delete, session):
     # Delete from source
     print "Deleting from source table... "
     q = session.execute("""
-SELECT df.id, s.id, f.filename FROM source s, files f, dsc_files df
+SELECT s.id, f.filename FROM source s, files f
   WHERE f.last_used <= :deletedate
-        AND s.file = f.id AND s.id = df.source
-        AND df.id = dsc_files.id)""", {'deletedate': delete_date})
+        AND s.file = f.id""", {'deletedate': delete_date})
     for s in q.fetchall():
-        Logger.log(["delete source", s[2]])
+        Logger.log(["delete source", s[1], s[0]])
         if not Options["No-Action"]:
-            session.execute("DELETE FROM dsc_files WHERE id = :dsc_id", {"dscid":s[0]})
-            session.execute("DELETE FROM source WHERE id = :s_id", {"s_id":s[1]})
+            session.execute("DELETE FROM dsc_files WHERE source = :s_id", {"s_id":s[0]})
+            session.execute("DELETE FROM source WHERE id = :s_id", {"s_id":s[0]})
 
     if not Options["No-Action"]:
         session.commit()
 
     # Delete files from the pool
-    old_files = session.query(PoolFile).filter(last_used <= delete_date)
+    old_files = session.query(PoolFile).filter(PoolFile.last_used <= delete_date)
     if max_delete is not None:
         old_files = old_files.limit(max_delete)
         print "Limiting removals to %d" % max_delete
@@ -255,7 +254,7 @@ SELECT df.id, s.id, f.filename FROM source s, files f, dsc_files df
 
             if not Options["No-Action"]:
                 session.delete(pf)
-            
+
         else:
             utils.fubar("%s is neither symlink nor file?!" % (filename))
 
@@ -333,7 +332,7 @@ def clean_queue_build(now_date, delete_date, max_delete, session):
     our_delete_date = now_date - timedelta(seconds = int(cnf["Clean-Suites::QueueBuildStayOfExecution"]))
     count = 0
 
-    for qf in session.query(QueueBuild).filter(last_used <= our_delete_date):
+    for qf in session.query(QueueBuild).filter(QueueBuild.last_used <= our_delete_date):
         if not os.path.exists(qf.filename):
             utils.warn("%s (from queue_build) doesn't exist." % (qf.filename))
             continue