]> git.decadent.org.uk Git - dak.git/blob - dak/process_accepted.py
key expire
[dak.git] / dak / process_accepted.py
1 #!/usr/bin/env python
2
3 """ Installs Debian packages from queue/accepted into the pool """
4 # Copyright (C) 2000, 2001, 2002, 2003, 2004, 2006  James Troup <james@nocrew.org>
5
6 # This program is free software; you can redistribute it and/or modify
7 # it under the terms of the GNU General Public License as published by
8 # the Free Software Foundation; either version 2 of the License, or
9 # (at your option) any later version.
10
11 # This program is distributed in the hope that it will be useful,
12 # but WITHOUT ANY WARRANTY; without even the implied warranty of
13 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14 # GNU General Public License for more details.
15
16 # You should have received a copy of the GNU General Public License
17 # along with this program; if not, write to the Free Software
18 # Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
19
20 ###############################################################################
21
22 #    Cartman: "I'm trying to make the best of a bad situation, I don't
23 #              need to hear crap from a bunch of hippy freaks living in
24 #              denial.  Screw you guys, I'm going home."
25 #
26 #    Kyle: "But Cartman, we're trying to..."
27 #
28 #    Cartman: "uhh.. screw you guys... home."
29
30 ###############################################################################
31
32 import errno, fcntl, os, sys, time, re
33 import apt_pkg
34 from daklib import database
35 from daklib import logging
36 from daklib import queue
37 from daklib import utils
38 from daklib.dak_exceptions import *
39 from daklib.regexes import re_default_answer, re_issource, re_fdnic
40
41 ###############################################################################
42
43 Cnf = None
44 Options = None
45 Logger = None
46 Urgency_Logger = None
47 projectB = None
48 Upload = None
49 pkg = None
50
51 reject_message = ""
52 changes = None
53 dsc = None
54 dsc_files = None
55 files = None
56 Subst = None
57
58 install_count = 0
59 install_bytes = 0.0
60
61 installing_to_stable = 0
62
63 ###############################################################################
64
65 # FIXME: this should go away to some Debian specific file
66 # FIXME: should die if file already exists
67
68 class Urgency_Log:
69     "Urgency Logger object"
70     def __init__ (self, Cnf):
71         "Initialize a new Urgency Logger object"
72         self.Cnf = Cnf
73         self.timestamp = time.strftime("%Y%m%d%H%M%S")
74         # Create the log directory if it doesn't exist
75         self.log_dir = Cnf["Dir::UrgencyLog"]
76         if not os.path.exists(self.log_dir) or not os.access(self.log_dir, os.W_OK):
77             utils.warn("UrgencyLog directory %s does not exist or is not writeable, using /srv/ftp.debian.org/tmp/ instead" % (self.log_dir))
78             self.log_dir = '/srv/ftp.debian.org/tmp/'
79         # Open the logfile
80         self.log_filename = "%s/.install-urgencies-%s.new" % (self.log_dir, self.timestamp)
81         self.log_file = utils.open_file(self.log_filename, 'w')
82         self.writes = 0
83
84     def log (self, source, version, urgency):
85         "Log an event"
86         self.log_file.write(" ".join([source, version, urgency])+'\n')
87         self.log_file.flush()
88         self.writes += 1
89
90     def close (self):
91         "Close a Logger object"
92         self.log_file.flush()
93         self.log_file.close()
94         if self.writes:
95             new_filename = "%s/install-urgencies-%s" % (self.log_dir, self.timestamp)
96             utils.move(self.log_filename, new_filename)
97         else:
98             os.unlink(self.log_filename)
99
100 ###############################################################################
101
102 def reject (str, prefix="Rejected: "):
103     global reject_message
104     if str:
105         reject_message += prefix + str + "\n"
106
107 # Recheck anything that relies on the database; since that's not
108 # frozen between accept and our run time.
109
110 def check():
111     propogate={}
112     nopropogate={}
113     for checkfile in files.keys():
114         # The .orig.tar.gz can disappear out from under us is it's a
115         # duplicate of one in the archive.
116         if not files.has_key(checkfile):
117             continue
118         # Check that the source still exists
119         if files[checkfile]["type"] == "deb":
120             source_version = files[checkfile]["source version"]
121             source_package = files[checkfile]["source package"]
122             if not changes["architecture"].has_key("source") \
123                and not Upload.source_exists(source_package, source_version,  changes["distribution"].keys()):
124                 reject("no source found for %s %s (%s)." % (source_package, source_version, checkfile))
125
126         # Version and file overwrite checks
127         if not installing_to_stable:
128             if files[checkfile]["type"] == "deb":
129                 reject(Upload.check_binary_against_db(checkfile), "")
130             elif files[checkfile]["type"] == "dsc":
131                 reject(Upload.check_source_against_db(checkfile), "")
132                 (reject_msg, is_in_incoming) = Upload.check_dsc_against_db(checkfile)
133                 reject(reject_msg, "")
134
135         # propogate in the case it is in the override tables:
136         if changes.has_key("propdistribution"):
137             for suite in changes["propdistribution"].keys():
138                 if Upload.in_override_p(files[checkfile]["package"], files[checkfile]["component"], suite, files[checkfile].get("dbtype",""), checkfile):
139                     propogate[suite] = 1
140                 else:
141                     nopropogate[suite] = 1
142
143     for suite in propogate.keys():
144         if suite in nopropogate:
145             continue
146         changes["distribution"][suite] = 1
147
148     for checkfile in files.keys():
149         # Check the package is still in the override tables
150         for suite in changes["distribution"].keys():
151             if not Upload.in_override_p(files[checkfile]["package"], files[checkfile]["component"], suite, files[checkfile].get("dbtype",""), checkfile):
152                 reject("%s is NEW for %s." % (checkfile, suite))
153
154 ###############################################################################
155
156 def init():
157     global Cnf, Options, Upload, projectB, changes, dsc, dsc_files, files, pkg, Subst
158
159     Cnf = utils.get_conf()
160
161     Arguments = [('a',"automatic","Dinstall::Options::Automatic"),
162                  ('h',"help","Dinstall::Options::Help"),
163                  ('n',"no-action","Dinstall::Options::No-Action"),
164                  ('p',"no-lock", "Dinstall::Options::No-Lock"),
165                  ('s',"no-mail", "Dinstall::Options::No-Mail")]
166
167     for i in ["automatic", "help", "no-action", "no-lock", "no-mail", "version"]:
168         if not Cnf.has_key("Dinstall::Options::%s" % (i)):
169             Cnf["Dinstall::Options::%s" % (i)] = ""
170
171     changes_files = apt_pkg.ParseCommandLine(Cnf,Arguments,sys.argv)
172     Options = Cnf.SubTree("Dinstall::Options")
173
174     if Options["Help"]:
175         usage()
176
177     Upload = queue.Upload(Cnf)
178     projectB = Upload.projectB
179
180     changes = Upload.pkg.changes
181     dsc = Upload.pkg.dsc
182     dsc_files = Upload.pkg.dsc_files
183     files = Upload.pkg.files
184     pkg = Upload.pkg
185     Subst = Upload.Subst
186
187     return changes_files
188
189 ###############################################################################
190
191 def usage (exit_code=0):
192     print """Usage: dak process-accepted [OPTION]... [CHANGES]...
193   -a, --automatic           automatic run
194   -h, --help                show this help and exit.
195   -n, --no-action           don't do anything
196   -p, --no-lock             don't check lockfile !! for cron.daily only !!
197   -s, --no-mail             don't send any mail
198   -V, --version             display the version number and exit"""
199     sys.exit(exit_code)
200
201 ###############################################################################
202
203 def action ():
204     (summary, short_summary) = Upload.build_summaries()
205
206     (prompt, answer) = ("", "XXX")
207     if Options["No-Action"] or Options["Automatic"]:
208         answer = 'S'
209
210     if reject_message.find("Rejected") != -1:
211         print "REJECT\n" + reject_message,
212         prompt = "[R]eject, Skip, Quit ?"
213         if Options["Automatic"]:
214             answer = 'R'
215     else:
216         print "INSTALL to " + ", ".join(changes["distribution"].keys())
217         print reject_message + summary,
218         prompt = "[I]nstall, Skip, Quit ?"
219         if Options["Automatic"]:
220             answer = 'I'
221
222     while prompt.find(answer) == -1:
223         answer = utils.our_raw_input(prompt)
224         m = re_default_answer.match(prompt)
225         if answer == "":
226             answer = m.group(1)
227         answer = answer[:1].upper()
228
229     if answer == 'R':
230         do_reject ()
231     elif answer == 'I':
232         if not installing_to_stable:
233             install()
234         else:
235             stable_install(summary, short_summary)
236     elif answer == 'Q':
237         sys.exit(0)
238
239 ###############################################################################
240
241 # Our reject is not really a reject, but an unaccept, but since a) the
242 # code for that is non-trivial (reopen bugs, unannounce etc.), b) this
243 # should be exteremly rare, for now we'll go with whining at our admin
244 # folks...
245
246 def do_reject ():
247     Subst["__REJECTOR_ADDRESS__"] = Cnf["Dinstall::MyEmailAddress"]
248     Subst["__REJECT_MESSAGE__"] = reject_message
249     Subst["__CC__"] = "Cc: " + Cnf["Dinstall::MyEmailAddress"]
250     reject_mail_message = utils.TemplateSubst(Subst,Cnf["Dir::Templates"]+"/process-accepted.unaccept")
251
252     # Write the rejection email out as the <foo>.reason file
253     reason_filename = os.path.basename(pkg.changes_file[:-8]) + ".reason"
254     reject_filename = Cnf["Dir::Queue::Reject"] + '/' + reason_filename
255     # If we fail here someone is probably trying to exploit the race
256     # so let's just raise an exception ...
257     if os.path.exists(reject_filename):
258         os.unlink(reject_filename)
259     fd = os.open(reject_filename, os.O_RDWR|os.O_CREAT|os.O_EXCL, 0644)
260     os.write(fd, reject_mail_message)
261     os.close(fd)
262
263     utils.send_mail(reject_mail_message)
264     Logger.log(["unaccepted", pkg.changes_file])
265
266 ###############################################################################
267
268 def install ():
269     global install_count, install_bytes
270
271     print "Installing."
272
273     Logger.log(["installing changes",pkg.changes_file])
274
275     # Begin a transaction; if we bomb out anywhere between here and the COMMIT WORK below, the DB will not be changed.
276     projectB.query("BEGIN WORK")
277
278     # Ensure that we have all the hashes we need below.
279     rejmsg = utils.ensure_hashes(changes, dsc, files, dsc_files)
280     if len(rejmsg) > 0:
281         # There were errors.  Print them and SKIP the changes.
282         for msg in rejmsg:
283             utils.warn(msg)
284         return
285
286     # Add the .dsc file to the DB
287     for newfile in files.keys():
288         if files[newfile]["type"] == "dsc":
289             package = dsc["source"]
290             version = dsc["version"]  # NB: not files[file]["version"], that has no epoch
291             maintainer = dsc["maintainer"]
292             maintainer = maintainer.replace("'", "\\'")
293             maintainer_id = database.get_or_set_maintainer_id(maintainer)
294             changedby = changes["changed-by"]
295             changedby = changedby.replace("'", "\\'")
296             changedby_id = database.get_or_set_maintainer_id(changedby)
297             fingerprint_id = database.get_or_set_fingerprint_id(dsc["fingerprint"])
298             install_date = time.strftime("%Y-%m-%d")
299             filename = files[newfile]["pool name"] + newfile
300             dsc_component = files[newfile]["component"]
301             dsc_location_id = files[newfile]["location id"]
302             if dsc.has_key("dm-upload-allowed") and  dsc["dm-upload-allowed"] == "yes":
303                 dm_upload_allowed = "true"
304             else:
305                 dm_upload_allowed = "false"
306             if not files[newfile].has_key("files id") or not files[newfile]["files id"]:
307                 files[newfile]["files id"] = database.set_files_id (filename, files[newfile]["size"], files[newfile]["md5sum"], files[newfile]["sha1sum"], files[newfile]["sha256sum"], dsc_location_id)
308             projectB.query("INSERT INTO source (source, version, maintainer, changedby, file, install_date, sig_fpr, dm_upload_allowed) VALUES ('%s', '%s', %d, %d, %d, '%s', %s, %s)"
309                            % (package, version, maintainer_id, changedby_id, files[newfile]["files id"], install_date, fingerprint_id, dm_upload_allowed))
310
311             for suite in changes["distribution"].keys():
312                 suite_id = database.get_suite_id(suite)
313                 projectB.query("INSERT INTO src_associations (suite, source) VALUES (%d, currval('source_id_seq'))" % (suite_id))
314
315             # Add the source files to the DB (files and dsc_files)
316             projectB.query("INSERT INTO dsc_files (source, file) VALUES (currval('source_id_seq'), %d)" % (files[newfile]["files id"]))
317             for dsc_file in dsc_files.keys():
318                 filename = files[newfile]["pool name"] + dsc_file
319                 # If the .orig.tar.gz is already in the pool, it's
320                 # files id is stored in dsc_files by check_dsc().
321                 files_id = dsc_files[dsc_file].get("files id", None)
322                 if files_id == None:
323                     files_id = database.get_files_id(filename, dsc_files[dsc_file]["size"], dsc_files[dsc_file]["md5sum"], dsc_location_id)
324                 # FIXME: needs to check for -1/-2 and or handle exception
325                 if files_id == None:
326                     files_id = database.set_files_id (filename, dsc_files[dsc_file]["size"], dsc_files[dsc_file]["md5sum"], files[dsc_file]["sha1sum"], files[dsc_file]["sha256sum"], dsc_location_id)
327                 projectB.query("INSERT INTO dsc_files (source, file) VALUES (currval('source_id_seq'), %d)" % (files_id))
328
329             # Add the src_uploaders to the DB
330             uploader_ids = [maintainer_id]
331             if dsc.has_key("uploaders"):
332                 for u in dsc["uploaders"].split(","):
333                     u = u.replace("'", "\\'")
334                     u = u.strip()
335                     uploader_ids.append(
336                         database.get_or_set_maintainer_id(u))
337             added_ids = {}
338             for u in uploader_ids:
339                 if added_ids.has_key(u):
340                     utils.warn("Already saw uploader %s for source %s" % (u, package))
341                     continue
342                 added_ids[u]=1
343                 projectB.query("INSERT INTO src_uploaders (source, maintainer) VALUES (currval('source_id_seq'), %d)" % (u))
344
345
346     # Add the .deb files to the DB
347     for newfile in files.keys():
348         if files[newfile]["type"] == "deb":
349             package = files[newfile]["package"]
350             version = files[newfile]["version"]
351             maintainer = files[newfile]["maintainer"]
352             maintainer = maintainer.replace("'", "\\'")
353             maintainer_id = database.get_or_set_maintainer_id(maintainer)
354             fingerprint_id = database.get_or_set_fingerprint_id(changes["fingerprint"])
355             architecture = files[newfile]["architecture"]
356             architecture_id = database.get_architecture_id (architecture)
357             filetype = files[newfile]["dbtype"]
358             source = files[newfile]["source package"]
359             source_version = files[newfile]["source version"]
360             filename = files[newfile]["pool name"] + newfile
361             if not files[newfile].has_key("location id") or not files[newfile]["location id"]:
362                 files[newfile]["location id"] = database.get_location_id(Cnf["Dir::Pool"],files[newfile]["component"],utils.where_am_i())
363             if not files[newfile].has_key("files id") or not files[newfile]["files id"]:
364                 files[newfile]["files id"] = database.set_files_id (filename, files[newfile]["size"], files[newfile]["md5sum"], files[newfile]["sha1sum"], files[newfile]["sha256sum"], files[newfile]["location id"])
365             source_id = database.get_source_id (source, source_version)
366             if source_id:
367                 projectB.query("INSERT INTO binaries (package, version, maintainer, source, architecture, file, type, sig_fpr) VALUES ('%s', '%s', %d, %d, %d, %d, '%s', %d)"
368                                % (package, version, maintainer_id, source_id, architecture_id, files[newfile]["files id"], filetype, fingerprint_id))
369             else:
370                 raise NoSourceFieldError, "Unable to find a source id for %s (%s), %s, file %s, type %s, signed by %s" % (package, version, architecture, newfile, filetype, changes["fingerprint"])
371             for suite in changes["distribution"].keys():
372                 suite_id = database.get_suite_id(suite)
373                 projectB.query("INSERT INTO bin_associations (suite, bin) VALUES (%d, currval('binaries_id_seq'))" % (suite_id))
374
375     # If this is a sourceful diff only upload that is moving
376     # cross-component we need to copy the .orig.tar.gz into the new
377     # component too for the same reasons as above.
378     #
379     if changes["architecture"].has_key("source") and orig_tar_id and \
380        orig_tar_location != dsc_location_id:
381         q = projectB.query("SELECT l.path, f.filename, f.size, f.md5sum, f.sha1sum, f.sha256sum FROM files f, location l WHERE f.id = %s AND f.location = l.id" % (orig_tar_id))
382         ql = q.getresult()[0]
383         old_filename = ql[0] + ql[1]
384         file_size = ql[2]
385         file_md5sum = ql[3]
386         file_sha1sum = ql[4]
387         file_sha256sum = ql[5]
388         new_filename = utils.poolify(changes["source"], dsc_component) + os.path.basename(old_filename)
389         new_files_id = database.get_files_id(new_filename, file_size, file_md5sum, dsc_location_id)
390         if new_files_id == None:
391             utils.copy(old_filename, Cnf["Dir::Pool"] + new_filename)
392             new_files_id = database.set_files_id(new_filename, file_size, file_md5sum, file_sha1sum, file_sha256sum, dsc_location_id)
393             projectB.query("UPDATE dsc_files SET file = %s WHERE source = %s AND file = %s" % (new_files_id, database.get_source_id(changes["source"], changes["version"]), orig_tar_id))
394
395     # Install the files into the pool
396     for newfile in files.keys():
397         destination = Cnf["Dir::Pool"] + files[newfile]["pool name"] + newfile
398         utils.move(newfile, destination)
399         Logger.log(["installed", newfile, files[newfile]["type"], files[newfile]["size"], files[newfile]["architecture"]])
400         install_bytes += float(files[newfile]["size"])
401
402     # Copy the .changes file across for suite which need it.
403     copy_changes = {}
404     copy_dot_dak = {}
405     for suite in changes["distribution"].keys():
406         if Cnf.has_key("Suite::%s::CopyChanges" % (suite)):
407             copy_changes[Cnf["Suite::%s::CopyChanges" % (suite)]] = ""
408         # and the .dak file...
409         if Cnf.has_key("Suite::%s::CopyDotDak" % (suite)):
410             copy_dot_dak[Cnf["Suite::%s::CopyDotDak" % (suite)]] = ""
411     for dest in copy_changes.keys():
412         utils.copy(pkg.changes_file, Cnf["Dir::Root"] + dest)
413     for dest in copy_dot_dak.keys():
414         utils.copy(Upload.pkg.changes_file[:-8]+".dak", dest)
415
416     projectB.query("COMMIT WORK")
417
418     # Move the .changes into the 'done' directory
419     utils.move (pkg.changes_file,
420                 os.path.join(Cnf["Dir::Queue::Done"], os.path.basename(pkg.changes_file)))
421
422     # Remove the .dak file
423     os.unlink(Upload.pkg.changes_file[:-8]+".dak")
424
425     if changes["architecture"].has_key("source") and Urgency_Logger:
426         Urgency_Logger.log(dsc["source"], dsc["version"], changes["urgency"])
427
428     # Undo the work done in queue.py(accept) to help auto-building
429     # from accepted.
430     projectB.query("BEGIN WORK")
431     for suite in changes["distribution"].keys():
432         if suite not in Cnf.ValueList("Dinstall::QueueBuildSuites"):
433             continue
434         now_date = time.strftime("%Y-%m-%d %H:%M")
435         suite_id = database.get_suite_id(suite)
436         dest_dir = Cnf["Dir::QueueBuild"]
437         if Cnf.FindB("Dinstall::SecurityQueueBuild"):
438             dest_dir = os.path.join(dest_dir, suite)
439         for newfile in files.keys():
440             dest = os.path.join(dest_dir, newfile)
441             # Remove it from the list of packages for later processing by apt-ftparchive
442             projectB.query("UPDATE queue_build SET in_queue = 'f', last_used = '%s' WHERE filename = '%s' AND suite = %s" % (now_date, dest, suite_id))
443             if not Cnf.FindB("Dinstall::SecurityQueueBuild"):
444                 # Update the symlink to point to the new location in the pool
445                 pool_location = utils.poolify (changes["source"], files[newfile]["component"])
446                 src = os.path.join(Cnf["Dir::Pool"], pool_location, os.path.basename(newfile))
447                 if os.path.islink(dest):
448                     os.unlink(dest)
449                 os.symlink(src, dest)
450         # Update last_used on any non-upload .orig.tar.gz symlink
451         if orig_tar_id:
452             # Determine the .orig.tar.gz file name
453             for dsc_file in dsc_files.keys():
454                 if dsc_file.endswith(".orig.tar.gz"):
455                     orig_tar_gz = os.path.join(dest_dir, dsc_file)
456             # Remove it from the list of packages for later processing by apt-ftparchive
457             projectB.query("UPDATE queue_build SET in_queue = 'f', last_used = '%s' WHERE filename = '%s' AND suite = %s" % (now_date, orig_tar_gz, suite_id))
458     projectB.query("COMMIT WORK")
459
460     # Finally...
461     install_count += 1
462
463 ################################################################################
464
465 def stable_install (summary, short_summary):
466     global install_count
467
468     print "Installing to stable."
469
470     # Begin a transaction; if we bomb out anywhere between here and
471     # the COMMIT WORK below, the DB won't be changed.
472     projectB.query("BEGIN WORK")
473
474     # Add the source to stable (and remove it from proposed-updates)
475     for newfile in files.keys():
476         if files[newfile]["type"] == "dsc":
477             package = dsc["source"]
478             version = dsc["version"];  # NB: not files[file]["version"], that has no epoch
479             q = projectB.query("SELECT id FROM source WHERE source = '%s' AND version = '%s'" % (package, version))
480             ql = q.getresult()
481             if not ql:
482                 utils.fubar("[INTERNAL ERROR] couldn't find '%s' (%s) in source table." % (package, version))
483             source_id = ql[0][0]
484             suite_id = database.get_suite_id('proposed-updates')
485             projectB.query("DELETE FROM src_associations WHERE suite = '%s' AND source = '%s'" % (suite_id, source_id))
486             suite_id = database.get_suite_id('stable')
487             projectB.query("INSERT INTO src_associations (suite, source) VALUES ('%s', '%s')" % (suite_id, source_id))
488
489     # Add the binaries to stable (and remove it/them from proposed-updates)
490     for newfile in files.keys():
491         if files[newfile]["type"] == "deb":
492             package = files[newfile]["package"]
493             version = files[newfile]["version"]
494             architecture = files[newfile]["architecture"]
495             q = projectB.query("SELECT b.id FROM binaries b, architecture a WHERE b.package = '%s' AND b.version = '%s' AND (a.arch_string = '%s' OR a.arch_string = 'all') AND b.architecture = a.id" % (package, version, architecture))
496             ql = q.getresult()
497             if not ql:
498                 utils.fubar("[INTERNAL ERROR] couldn't find '%s' (%s for %s architecture) in binaries table." % (package, version, architecture))
499
500             binary_id = ql[0][0]
501             suite_id = database.get_suite_id('proposed-updates')
502             projectB.query("DELETE FROM bin_associations WHERE suite = '%s' AND bin = '%s'" % (suite_id, binary_id))
503             suite_id = database.get_suite_id('stable')
504             projectB.query("INSERT INTO bin_associations (suite, bin) VALUES ('%s', '%s')" % (suite_id, binary_id))
505
506     projectB.query("COMMIT WORK")
507
508     utils.move (pkg.changes_file, Cnf["Dir::Morgue"] + '/process-accepted/' + os.path.basename(pkg.changes_file))
509
510     ## Update the Stable ChangeLog file
511     new_changelog_filename = Cnf["Dir::Root"] + Cnf["Suite::Stable::ChangeLogBase"] + ".ChangeLog"
512     changelog_filename = Cnf["Dir::Root"] + Cnf["Suite::Stable::ChangeLogBase"] + "ChangeLog"
513     if os.path.exists(new_changelog_filename):
514         os.unlink (new_changelog_filename)
515
516     new_changelog = utils.open_file(new_changelog_filename, 'w')
517     for newfile in files.keys():
518         if files[newfile]["type"] == "deb":
519             new_changelog.write("stable/%s/binary-%s/%s\n" % (files[newfile]["component"], files[newfile]["architecture"], newfile))
520         elif re_issource.match(newfile):
521             new_changelog.write("stable/%s/source/%s\n" % (files[newfile]["component"], newfile))
522         else:
523             new_changelog.write("%s\n" % (newfile))
524     chop_changes = re_fdnic.sub("\n", changes["changes"])
525     new_changelog.write(chop_changes + '\n\n')
526     if os.access(changelog_filename, os.R_OK) != 0:
527         changelog = utils.open_file(changelog_filename)
528         new_changelog.write(changelog.read())
529     new_changelog.close()
530     if os.access(changelog_filename, os.R_OK) != 0:
531         os.unlink(changelog_filename)
532     utils.move(new_changelog_filename, changelog_filename)
533
534     install_count += 1
535
536     if not Options["No-Mail"] and changes["architecture"].has_key("source"):
537         Subst["__SUITE__"] = " into stable"
538         Subst["__SUMMARY__"] = summary
539         mail_message = utils.TemplateSubst(Subst,Cnf["Dir::Templates"]+"/process-accepted.install")
540         utils.send_mail(mail_message)
541         Upload.announce(short_summary, 1)
542
543     # Finally remove the .dak file
544     dot_dak_file = os.path.join(Cnf["Suite::Proposed-Updates::CopyDotDak"], os.path.basename(Upload.pkg.changes_file[:-8]+".dak"))
545     os.unlink(dot_dak_file)
546
547 ################################################################################
548
549 def process_it (changes_file):
550     global reject_message
551
552     reject_message = ""
553
554     # Absolutize the filename to avoid the requirement of being in the
555     # same directory as the .changes file.
556     pkg.changes_file = os.path.abspath(changes_file)
557
558     # And since handling of installs to stable munges with the CWD
559     # save and restore it.
560     pkg.directory = os.getcwd()
561
562     if installing_to_stable:
563         old = Upload.pkg.changes_file
564         Upload.pkg.changes_file = os.path.basename(old)
565         os.chdir(Cnf["Suite::Proposed-Updates::CopyDotDak"])
566
567     Upload.init_vars()
568     Upload.update_vars()
569     Upload.update_subst()
570
571     if installing_to_stable:
572         Upload.pkg.changes_file = old
573
574     check()
575     action()
576
577     # Restore CWD
578     os.chdir(pkg.directory)
579
580 ###############################################################################
581
582 def main():
583     global projectB, Logger, Urgency_Logger, installing_to_stable
584
585     changes_files = init()
586
587     # -n/--dry-run invalidates some other options which would involve things happening
588     if Options["No-Action"]:
589         Options["Automatic"] = ""
590
591     # Check that we aren't going to clash with the daily cron job
592
593     if not Options["No-Action"] and os.path.exists("%s/Archive_Maintenance_In_Progress" % (Cnf["Dir::Root"])) and not Options["No-Lock"]:
594         utils.fubar("Archive maintenance in progress.  Try again later.")
595
596     # If running from within proposed-updates; assume an install to stable
597     if os.getcwd().find('proposed-updates') != -1:
598         installing_to_stable = 1
599
600     # Obtain lock if not in no-action mode and initialize the log
601     if not Options["No-Action"]:
602         lock_fd = os.open(Cnf["Dinstall::LockFile"], os.O_RDWR | os.O_CREAT)
603         try:
604             fcntl.lockf(lock_fd, fcntl.LOCK_EX | fcntl.LOCK_NB)
605         except IOError, e:
606             if errno.errorcode[e.errno] == 'EACCES' or errno.errorcode[e.errno] == 'EAGAIN':
607                 utils.fubar("Couldn't obtain lock; assuming another 'dak process-accepted' is already running.")
608             else:
609                 raise
610         Logger = Upload.Logger = logging.Logger(Cnf, "process-accepted")
611         if not installing_to_stable and Cnf.get("Dir::UrgencyLog"):
612             Urgency_Logger = Urgency_Log(Cnf)
613
614     # Initialize the substitution template mapping global
615     bcc = "X-DAK: dak process-accepted\nX-Katie: $Revision: 1.18 $"
616     if Cnf.has_key("Dinstall::Bcc"):
617         Subst["__BCC__"] = bcc + "\nBcc: %s" % (Cnf["Dinstall::Bcc"])
618     else:
619         Subst["__BCC__"] = bcc
620
621     # Sort the .changes files so that we process sourceful ones first
622     changes_files.sort(utils.changes_compare)
623
624     # Process the changes files
625     for changes_file in changes_files:
626         print "\n" + changes_file
627         process_it (changes_file)
628
629     if install_count:
630         sets = "set"
631         if install_count > 1:
632             sets = "sets"
633         sys.stderr.write("Installed %d package %s, %s.\n" % (install_count, sets, utils.size_type(int(install_bytes))))
634         Logger.log(["total",install_count,install_bytes])
635
636     if not Options["No-Action"]:
637         Logger.close()
638         if Urgency_Logger:
639             Urgency_Logger.close()
640
641 ###############################################################################
642
643 if __name__ == '__main__':
644     main()