]> git.decadent.org.uk Git - dak.git/blob - dak/process_unchecked.py
04038a2568409ad503a03215b57941d13c7e8528
[dak.git] / dak / process_unchecked.py
1 #!/usr/bin/env python
2
3 # Checks Debian packages from Incoming
4 # Copyright (C) 2000, 2001, 2002, 2003, 2004, 2005, 2006  James Troup <james@nocrew.org>
5
6 # This program is free software; you can redistribute it and/or modify
7 # it under the terms of the GNU General Public License as published by
8 # the Free Software Foundation; either version 2 of the License, or
9 # (at your option) any later version.
10
11 # This program is distributed in the hope that it will be useful,
12 # but WITHOUT ANY WARRANTY; without even the implied warranty of
13 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14 # GNU General Public License for more details.
15
16 # You should have received a copy of the GNU General Public License
17 # along with this program; if not, write to the Free Software
18 # Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
19
20 # Originally based on dinstall by Guy Maor <maor@debian.org>
21
22 ################################################################################
23
24 # Computer games don't affect kids. I mean if Pacman affected our generation as
25 # kids, we'd all run around in a darkened room munching pills and listening to
26 # repetitive music.
27 #         -- Unknown
28
29 ################################################################################
30
31 import commands, errno, fcntl, os, re, shutil, stat, sys, time, tempfile, traceback
32 import apt_inst, apt_pkg
33 import daklib.database
34 import daklib.logging
35 import daklib.queue 
36 import daklib.utils
37
38 from types import *
39
40 ################################################################################
41
42 re_valid_version = re.compile(r"^([0-9]+:)?[0-9A-Za-z\.\-\+:~]+$")
43 re_valid_pkg_name = re.compile(r"^[\dA-Za-z][\dA-Za-z\+\-\.]+$")
44 re_changelog_versions = re.compile(r"^\w[-+0-9a-z.]+ \([^\(\) \t]+\)")
45 re_strip_revision = re.compile(r"-([^-]+)$")
46 re_strip_srcver = re.compile(r"\s+\(\S+\)$")
47 re_spacestrip = re.compile('(\s)')
48
49 ################################################################################
50
51 # Globals
52 Cnf = None
53 Options = None
54 Logger = None
55 Upload = None
56
57 reprocess = 0
58 in_holding = {}
59
60 # Aliases to the real vars in the Upload class; hysterical raisins.
61 reject_message = ""
62 changes = {}
63 dsc = {}
64 dsc_files = {}
65 files = {}
66 pkg = {}
67
68 ###############################################################################
69
70 def init():
71     global Cnf, Options, Upload, changes, dsc, dsc_files, files, pkg
72
73     apt_pkg.init()
74
75     Cnf = apt_pkg.newConfiguration()
76     apt_pkg.ReadConfigFileISC(Cnf,daklib.utils.which_conf_file())
77
78     Arguments = [('a',"automatic","Dinstall::Options::Automatic"),
79                  ('h',"help","Dinstall::Options::Help"),
80                  ('n',"no-action","Dinstall::Options::No-Action"),
81                  ('p',"no-lock", "Dinstall::Options::No-Lock"),
82                  ('s',"no-mail", "Dinstall::Options::No-Mail")]
83
84     for i in ["automatic", "help", "no-action", "no-lock", "no-mail",
85               "override-distribution", "version"]:
86         Cnf["Dinstall::Options::%s" % (i)] = ""
87
88     changes_files = apt_pkg.ParseCommandLine(Cnf,Arguments,sys.argv)
89     Options = Cnf.SubTree("Dinstall::Options")
90
91     if Options["Help"]:
92         usage()
93
94     Upload = daklib.queue.Upload(Cnf)
95
96     changes = Upload.pkg.changes
97     dsc = Upload.pkg.dsc
98     dsc_files = Upload.pkg.dsc_files
99     files = Upload.pkg.files
100     pkg = Upload.pkg
101
102     return changes_files
103
104 ################################################################################
105
106 def usage (exit_code=0):
107     print """Usage: dinstall [OPTION]... [CHANGES]...
108   -a, --automatic           automatic run
109   -h, --help                show this help and exit.
110   -n, --no-action           don't do anything
111   -p, --no-lock             don't check lockfile !! for cron.daily only !!
112   -s, --no-mail             don't send any mail
113   -V, --version             display the version number and exit"""
114     sys.exit(exit_code)
115
116 ################################################################################
117
118 def reject (str, prefix="Rejected: "):
119     global reject_message
120     if str:
121         reject_message += prefix + str + "\n"
122
123 ################################################################################
124
125 def copy_to_holding(filename):
126     global in_holding
127
128     base_filename = os.path.basename(filename)
129
130     dest = Cnf["Dir::Queue::Holding"] + '/' + base_filename
131     try:
132         fd = os.open(dest, os.O_RDWR|os.O_CREAT|os.O_EXCL, 0640)
133         os.close(fd)
134     except OSError, e:
135         # Shouldn't happen, but will if, for example, someone lists a
136         # file twice in the .changes.
137         if errno.errorcode[e.errno] == 'EEXIST':
138             reject("%s: already exists in holding area; can not overwrite." % (base_filename))
139             return
140         raise
141
142     try:
143         shutil.copy(filename, dest)
144     except IOError, e:
145         # In either case (ENOENT or EACCES) we want to remove the
146         # O_CREAT | O_EXCLed ghost file, so add the file to the list
147         # of 'in holding' even if it's not the real file.
148         if errno.errorcode[e.errno] == 'ENOENT':
149             reject("%s: can not copy to holding area: file not found." % (base_filename))
150             os.unlink(dest)
151             return
152         elif errno.errorcode[e.errno] == 'EACCES':
153             reject("%s: can not copy to holding area: read permission denied." % (base_filename))
154             os.unlink(dest)
155             return
156         raise
157
158     in_holding[base_filename] = ""
159
160 ################################################################################
161
162 def clean_holding():
163     global in_holding
164
165     cwd = os.getcwd()
166     os.chdir(Cnf["Dir::Queue::Holding"])
167     for file in in_holding.keys():
168         if os.path.exists(file):
169             if file.find('/') != -1:
170                 daklib.utils.fubar("WTF? clean_holding() got a file ('%s') with / in it!" % (file))
171             else:
172                 os.unlink(file)
173     in_holding = {}
174     os.chdir(cwd)
175
176 ################################################################################
177
178 def check_changes():
179     filename = pkg.changes_file
180
181     # Parse the .changes field into a dictionary
182     try:
183         changes.update(daklib.utils.parse_changes(filename))
184     except daklib.utils.cant_open_exc:
185         reject("%s: can't read file." % (filename))
186         return 0
187     except daklib.utils.changes_parse_error_exc, line:
188         reject("%s: parse error, can't grok: %s." % (filename, line))
189         return 0
190
191     # Parse the Files field from the .changes into another dictionary
192     try:
193         files.update(daklib.utils.build_file_list(changes))
194     except daklib.utils.changes_parse_error_exc, line:
195         reject("%s: parse error, can't grok: %s." % (filename, line))
196     except daklib.utils.nk_format_exc, format:
197         reject("%s: unknown format '%s'." % (filename, format))
198         return 0
199
200     # Check for mandatory fields
201     for i in ("source", "binary", "architecture", "version", "distribution",
202               "maintainer", "files", "changes", "description"):
203         if not changes.has_key(i):
204             reject("%s: Missing mandatory field `%s'." % (filename, i))
205             return 0    # Avoid <undef> errors during later tests
206
207     # Strip a source version in brackets from the source field
208     if re_strip_srcver.search(changes["source"]):
209         changes["source"] = re_strip_srcver.sub('', changes["source"])
210
211     # Ensure the source field is a valid package name.
212     if not re_valid_pkg_name.match(changes["source"]):
213         reject("%s: invalid source name '%s'." % (filename, changes["source"]))
214
215     # Split multi-value fields into a lower-level dictionary
216     for i in ("architecture", "distribution", "binary", "closes"):
217         o = changes.get(i, "")
218         if o != "":
219             del changes[i]
220         changes[i] = {}
221         for j in o.split():
222             changes[i][j] = 1
223
224     # Fix the Maintainer: field to be RFC822/2047 compatible
225     try:
226         (changes["maintainer822"], changes["maintainer2047"],
227          changes["maintainername"], changes["maintaineremail"]) = \
228          daklib.utils.fix_maintainer (changes["maintainer"])
229     except daklib.utils.ParseMaintError, msg:
230         reject("%s: Maintainer field ('%s') failed to parse: %s" \
231                % (filename, changes["maintainer"], msg))
232
233     # ...likewise for the Changed-By: field if it exists.
234     try:
235         (changes["changedby822"], changes["changedby2047"],
236          changes["changedbyname"], changes["changedbyemail"]) = \
237          daklib.utils.fix_maintainer (changes.get("changed-by", ""))
238     except daklib.utils.ParseMaintError, msg:
239         (changes["changedby822"], changes["changedby2047"],
240          changes["changedbyname"], changes["changedbyemail"]) = \
241          ("", "", "", "")
242         reject("%s: Changed-By field ('%s') failed to parse: %s" \
243                % (filename, changes["changed-by"], msg))
244
245     # Ensure all the values in Closes: are numbers
246     if changes.has_key("closes"):
247         for i in changes["closes"].keys():
248             if daklib.queue.re_isanum.match (i) == None:
249                 reject("%s: `%s' from Closes field isn't a number." % (filename, i))
250
251
252     # chopversion = no epoch; chopversion2 = no epoch and no revision (e.g. for .orig.tar.gz comparison)
253     changes["chopversion"] = daklib.utils.re_no_epoch.sub('', changes["version"])
254     changes["chopversion2"] = daklib.utils.re_no_revision.sub('', changes["chopversion"])
255
256     # Check there isn't already a changes file of the same name in one
257     # of the queue directories.
258     base_filename = os.path.basename(filename)
259     for dir in [ "Accepted", "Byhand", "Done", "New", "ProposedUpdates", "OldProposedUpdates" ]:
260         if os.path.exists(Cnf["Dir::Queue::%s" % (dir) ]+'/'+base_filename):
261             reject("%s: a file with this name already exists in the %s directory." % (base_filename, dir))
262
263     # Check the .changes is non-empty
264     if not files:
265         reject("%s: nothing to do (Files field is empty)." % (base_filename))
266         return 0
267
268     return 1
269
270 ################################################################################
271
272 def check_distributions():
273     "Check and map the Distribution field of a .changes file."
274
275     # Handle suite mappings
276     for map in Cnf.ValueList("SuiteMappings"):
277         args = map.split()
278         type = args[0]
279         if type == "map" or type == "silent-map":
280             (source, dest) = args[1:3]
281             if changes["distribution"].has_key(source):
282                 del changes["distribution"][source]
283                 changes["distribution"][dest] = 1
284                 if type != "silent-map":
285                     reject("Mapping %s to %s." % (source, dest),"")
286             if changes.has_key("distribution-version"):
287                 if changes["distribution-version"].has_key(source):
288                     changes["distribution-version"][source]=dest
289         elif type == "map-unreleased":
290             (source, dest) = args[1:3]
291             if changes["distribution"].has_key(source):
292                 for arch in changes["architecture"].keys():
293                     if arch not in Cnf.ValueList("Suite::%s::Architectures" % (source)):
294                         reject("Mapping %s to %s for unreleased architecture %s." % (source, dest, arch),"")
295                         del changes["distribution"][source]
296                         changes["distribution"][dest] = 1
297                         break
298         elif type == "ignore":
299             suite = args[1]
300             if changes["distribution"].has_key(suite):
301                 del changes["distribution"][suite]
302                 reject("Ignoring %s as a target suite." % (suite), "Warning: ")
303         elif type == "reject":
304             suite = args[1]
305             if changes["distribution"].has_key(suite):
306                 reject("Uploads to %s are not accepted." % (suite))
307         elif type == "propup-version":
308             # give these as "uploaded-to(non-mapped) suites-to-add-when-upload-obsoletes"
309             #
310             # changes["distribution-version"] looks like: {'testing': 'testing-proposed-updates'}
311             if changes["distribution"].has_key(args[1]):
312                 changes.setdefault("distribution-version", {})
313                 for suite in args[2:]: changes["distribution-version"][suite]=suite
314
315     # Ensure there is (still) a target distribution
316     if changes["distribution"].keys() == []:
317         reject("no valid distribution.")
318
319     # Ensure target distributions exist
320     for suite in changes["distribution"].keys():
321         if not Cnf.has_key("Suite::%s" % (suite)):
322             reject("Unknown distribution `%s'." % (suite))
323
324 ################################################################################
325
326 def check_deb_ar(filename, control):
327     """Sanity check the ar of a .deb, i.e. that there is:
328
329  o debian-binary
330  o control.tar.gz
331  o data.tar.gz or data.tar.bz2
332
333 in that order, and nothing else."""
334     cmd = "ar t %s" % (filename)
335     (result, output) = commands.getstatusoutput(cmd)
336     if result != 0:
337         reject("%s: 'ar t' invocation failed." % (filename))
338         reject(daklib.utils.prefix_multi_line_string(output, " [ar output:] "), "")
339     chunks = output.split('\n')
340     if len(chunks) != 3:
341         reject("%s: found %d chunks, expected 3." % (filename, len(chunks)))
342     if chunks[0] != "debian-binary":
343         reject("%s: first chunk is '%s', expected 'debian-binary'." % (filename, chunks[0]))
344     if chunks[1] != "control.tar.gz":
345         reject("%s: second chunk is '%s', expected 'control.tar.gz'." % (filename, chunks[1]))
346     if chunks[2] not in [ "data.tar.bz2", "data.tar.gz" ]:
347         reject("%s: third chunk is '%s', expected 'data.tar.gz' or 'data.tar.bz2'." % (filename, chunks[2]))
348
349 ################################################################################
350
351 def check_files():
352     global reprocess
353
354     archive = daklib.utils.where_am_i()
355     file_keys = files.keys()
356
357     # if reprocess is 2 we've already done this and we're checking
358     # things again for the new .orig.tar.gz.
359     # [Yes, I'm fully aware of how disgusting this is]
360     if not Options["No-Action"] and reprocess < 2:
361         cwd = os.getcwd()
362         os.chdir(pkg.directory)
363         for file in file_keys:
364             copy_to_holding(file)
365         os.chdir(cwd)
366
367     # Check there isn't already a .changes or .dak file of the same name in
368     # the proposed-updates "CopyChanges" or "CopyDotDak" storage directories.
369     # [NB: this check must be done post-suite mapping]
370     base_filename = os.path.basename(pkg.changes_file)
371     dot_dak_filename = base_filename[:-8]+".dak"
372     for suite in changes["distribution"].keys():
373         copychanges = "Suite::%s::CopyChanges" % (suite)
374         if Cnf.has_key(copychanges) and \
375                os.path.exists(Cnf[copychanges]+"/"+base_filename):
376             reject("%s: a file with this name already exists in %s" \
377                    % (base_filename, Cnf[copychanges]))
378
379         copy_dot_dak = "Suite::%s::CopyDotDak" % (suite)
380         if Cnf.has_key(copy_dot_dak) and \
381                os.path.exists(Cnf[copy_dot_dak]+"/"+dot_dak_filename):
382             reject("%s: a file with this name already exists in %s" \
383                    % (dot_dak_filename, Cnf[copy_dot_dak]))
384
385     reprocess = 0
386     has_binaries = 0
387     has_source = 0
388
389     for file in file_keys:
390         # Ensure the file does not already exist in one of the accepted directories
391         for dir in [ "Accepted", "Byhand", "New", "ProposedUpdates", "OldProposedUpdates", "Embargoed", "Unembargoed" ]:
392             if not Cnf.has_key("Dir::Queue::%s" % (dir)): continue
393             if os.path.exists(Cnf["Dir::Queue::%s" % (dir) ]+'/'+file):
394                 reject("%s file already exists in the %s directory." % (file, dir))
395         if not daklib.utils.re_taint_free.match(file):
396             reject("!!WARNING!! tainted filename: '%s'." % (file))
397         # Check the file is readable
398         if os.access(file,os.R_OK) == 0:
399             # When running in -n, copy_to_holding() won't have
400             # generated the reject_message, so we need to.
401             if Options["No-Action"]:
402                 if os.path.exists(file):
403                     reject("Can't read `%s'. [permission denied]" % (file))
404                 else:
405                     reject("Can't read `%s'. [file not found]" % (file))
406             files[file]["type"] = "unreadable"
407             continue
408         # If it's byhand skip remaining checks
409         if files[file]["section"] == "byhand" or files[file]["section"][:4] == "raw-":
410             files[file]["byhand"] = 1
411             files[file]["type"] = "byhand"
412         # Checks for a binary package...
413         elif daklib.utils.re_isadeb.match(file):
414             has_binaries = 1
415             files[file]["type"] = "deb"
416
417             # Extract package control information
418             deb_file = daklib.utils.open_file(file)
419             try:
420                 control = apt_pkg.ParseSection(apt_inst.debExtractControl(deb_file))
421             except:
422                 reject("%s: debExtractControl() raised %s." % (file, sys.exc_type))
423                 deb_file.close()
424                 # Can't continue, none of the checks on control would work.
425                 continue
426             deb_file.close()
427
428             # Check for mandatory fields
429             for field in [ "Package", "Architecture", "Version" ]:
430                 if control.Find(field) == None:
431                     reject("%s: No %s field in control." % (file, field))
432                     # Can't continue
433                     continue
434
435             # Ensure the package name matches the one give in the .changes
436             if not changes["binary"].has_key(control.Find("Package", "")):
437                 reject("%s: control file lists name as `%s', which isn't in changes file." % (file, control.Find("Package", "")))
438
439             # Validate the package field
440             package = control.Find("Package")
441             if not re_valid_pkg_name.match(package):
442                 reject("%s: invalid package name '%s'." % (file, package))
443
444             # Validate the version field
445             version = control.Find("Version")
446             if not re_valid_version.match(version):
447                 reject("%s: invalid version number '%s'." % (file, version))
448
449             # Ensure the architecture of the .deb is one we know about.
450             default_suite = Cnf.get("Dinstall::DefaultSuite", "Unstable")
451             architecture = control.Find("Architecture")
452             if architecture not in Cnf.ValueList("Suite::%s::Architectures" % (default_suite)):
453                 reject("Unknown architecture '%s'." % (architecture))
454
455             # Ensure the architecture of the .deb is one of the ones
456             # listed in the .changes.
457             if not changes["architecture"].has_key(architecture):
458                 reject("%s: control file lists arch as `%s', which isn't in changes file." % (file, architecture))
459
460             # Sanity-check the Depends field
461             depends = control.Find("Depends")
462             if depends == '':
463                 reject("%s: Depends field is empty." % (file))
464
465             # Sanity-check the Provides field
466             provides = control.Find("Provides")
467             if provides:
468                 provide = re_spacestrip.sub('', provides)
469                 if provide == '':
470                     reject("%s: Provides field is empty." % (file))
471                 prov_list = provide.split(",")
472                 for prov in prov_list:
473                     if not re_valid_pkg_name.match(prov):
474                         reject("%s: Invalid Provides field content %s." % (file, prov))
475
476
477             # Check the section & priority match those given in the .changes (non-fatal)
478             if control.Find("Section") and files[file]["section"] != "" and files[file]["section"] != control.Find("Section"):
479                 reject("%s control file lists section as `%s', but changes file has `%s'." % (file, control.Find("Section", ""), files[file]["section"]), "Warning: ")
480             if control.Find("Priority") and files[file]["priority"] != "" and files[file]["priority"] != control.Find("Priority"):
481                 reject("%s control file lists priority as `%s', but changes file has `%s'." % (file, control.Find("Priority", ""), files[file]["priority"]),"Warning: ")
482
483             files[file]["package"] = package
484             files[file]["architecture"] = architecture
485             files[file]["version"] = version
486             files[file]["maintainer"] = control.Find("Maintainer", "")
487             if file.endswith(".udeb"):
488                 files[file]["dbtype"] = "udeb"
489             elif file.endswith(".deb"):
490                 files[file]["dbtype"] = "deb"
491             else:
492                 reject("%s is neither a .deb or a .udeb." % (file))
493             files[file]["source"] = control.Find("Source", files[file]["package"])
494             # Get the source version
495             source = files[file]["source"]
496             source_version = ""
497             if source.find("(") != -1:
498                 m = daklib.utils.re_extract_src_version.match(source)
499                 source = m.group(1)
500                 source_version = m.group(2)
501             if not source_version:
502                 source_version = files[file]["version"]
503             files[file]["source package"] = source
504             files[file]["source version"] = source_version
505
506             # Ensure the filename matches the contents of the .deb
507             m = daklib.utils.re_isadeb.match(file)
508             #  package name
509             file_package = m.group(1)
510             if files[file]["package"] != file_package:
511                 reject("%s: package part of filename (%s) does not match package name in the %s (%s)." % (file, file_package, files[file]["dbtype"], files[file]["package"]))
512             epochless_version = daklib.utils.re_no_epoch.sub('', control.Find("Version"))
513             #  version
514             file_version = m.group(2)
515             if epochless_version != file_version:
516                 reject("%s: version part of filename (%s) does not match package version in the %s (%s)." % (file, file_version, files[file]["dbtype"], epochless_version))
517             #  architecture
518             file_architecture = m.group(3)
519             if files[file]["architecture"] != file_architecture:
520                 reject("%s: architecture part of filename (%s) does not match package architecture in the %s (%s)." % (file, file_architecture, files[file]["dbtype"], files[file]["architecture"]))
521
522             # Check for existent source
523             source_version = files[file]["source version"]
524             source_package = files[file]["source package"]
525             if changes["architecture"].has_key("source"):
526                 if source_version != changes["version"]:
527                     reject("source version (%s) for %s doesn't match changes version %s." % (source_version, file, changes["version"]))
528             else:
529                 # Check in the SQL database
530                 if not Upload.source_exists(source_package, source_version, changes["distribution"].keys()):
531                     # Check in one of the other directories
532                     source_epochless_version = daklib.utils.re_no_epoch.sub('', source_version)
533                     dsc_filename = "%s_%s.dsc" % (source_package, source_epochless_version)
534                     if os.path.exists(Cnf["Dir::Queue::Byhand"] + '/' + dsc_filename):
535                         files[file]["byhand"] = 1
536                     elif os.path.exists(Cnf["Dir::Queue::New"] + '/' + dsc_filename):
537                         files[file]["new"] = 1
538                     else:
539                         dsc_file_exists = 0
540                         for myq in ["Accepted", "Embargoed", "Unembargoed", "ProposedUpdates", "OldProposedUpdates"]:
541                             if Cnf.has_key("Dir::Queue::%s" % (myq)):
542                                 if os.path.exists(Cnf["Dir::Queue::"+myq] + '/' + dsc_filename):
543                                     dsc_file_exists = 1
544                                     break
545                         if not dsc_file_exists:
546                             reject("no source found for %s %s (%s)." % (source_package, source_version, file))
547             # Check the version and for file overwrites
548             reject(Upload.check_binary_against_db(file),"")
549
550             check_deb_ar(file, control)
551
552         # Checks for a source package...
553         else:
554             m = daklib.utils.re_issource.match(file)
555             if m:
556                 has_source = 1
557                 files[file]["package"] = m.group(1)
558                 files[file]["version"] = m.group(2)
559                 files[file]["type"] = m.group(3)
560
561                 # Ensure the source package name matches the Source filed in the .changes
562                 if changes["source"] != files[file]["package"]:
563                     reject("%s: changes file doesn't say %s for Source" % (file, files[file]["package"]))
564
565                 # Ensure the source version matches the version in the .changes file
566                 if files[file]["type"] == "orig.tar.gz":
567                     changes_version = changes["chopversion2"]
568                 else:
569                     changes_version = changes["chopversion"]
570                 if changes_version != files[file]["version"]:
571                     reject("%s: should be %s according to changes file." % (file, changes_version))
572
573                 # Ensure the .changes lists source in the Architecture field
574                 if not changes["architecture"].has_key("source"):
575                     reject("%s: changes file doesn't list `source' in Architecture field." % (file))
576
577                 # Check the signature of a .dsc file
578                 if files[file]["type"] == "dsc":
579                     dsc["fingerprint"] = daklib.utils.check_signature(file, reject)
580
581                 files[file]["architecture"] = "source"
582
583             # Not a binary or source package?  Assume byhand...
584             else:
585                 files[file]["byhand"] = 1
586                 files[file]["type"] = "byhand"
587
588         # Per-suite file checks
589         files[file]["oldfiles"] = {}
590         for suite in changes["distribution"].keys():
591             # Skip byhand
592             if files[file].has_key("byhand"):
593                 continue
594
595             # Handle component mappings
596             for map in Cnf.ValueList("ComponentMappings"):
597                 (source, dest) = map.split()
598                 if files[file]["component"] == source:
599                     files[file]["original component"] = source
600                     files[file]["component"] = dest
601
602             # Ensure the component is valid for the target suite
603             if Cnf.has_key("Suite:%s::Components" % (suite)) and \
604                files[file]["component"] not in Cnf.ValueList("Suite::%s::Components" % (suite)):
605                 reject("unknown component `%s' for suite `%s'." % (files[file]["component"], suite))
606                 continue
607
608             # Validate the component
609             component = files[file]["component"]
610             component_id = daklib.database.get_component_id(component)
611             if component_id == -1:
612                 reject("file '%s' has unknown component '%s'." % (file, component))
613                 continue
614
615             # See if the package is NEW
616             if not Upload.in_override_p(files[file]["package"], files[file]["component"], suite, files[file].get("dbtype",""), file):
617                 files[file]["new"] = 1
618
619             # Validate the priority
620             if files[file]["priority"].find('/') != -1:
621                 reject("file '%s' has invalid priority '%s' [contains '/']." % (file, files[file]["priority"]))
622
623             # Determine the location
624             location = Cnf["Dir::Pool"]
625             location_id = daklib.database.get_location_id (location, component, archive)
626             if location_id == -1:
627                 reject("[INTERNAL ERROR] couldn't determine location (Component: %s, Archive: %s)" % (component, archive))
628             files[file]["location id"] = location_id
629
630             # Check the md5sum & size against existing files (if any)
631             files[file]["pool name"] = daklib.utils.poolify (changes["source"], files[file]["component"])
632             files_id = daklib.database.get_files_id(files[file]["pool name"] + file, files[file]["size"], files[file]["md5sum"], files[file]["location id"])
633             if files_id == -1:
634                 reject("INTERNAL ERROR, get_files_id() returned multiple matches for %s." % (file))
635             elif files_id == -2:
636                 reject("md5sum and/or size mismatch on existing copy of %s." % (file))
637             files[file]["files id"] = files_id
638
639             # Check for packages that have moved from one component to another
640             q = Upload.projectB.query("""
641 SELECT c.name FROM binaries b, bin_associations ba, suite s, location l,
642                    component c, architecture a, files f
643  WHERE b.package = '%s' AND s.suite_name = '%s'
644    AND (a.arch_string = '%s' OR a.arch_string = 'all')
645    AND ba.bin = b.id AND ba.suite = s.id AND b.architecture = a.id
646    AND f.location = l.id AND l.component = c.id AND b.file = f.id"""
647                                % (files[file]["package"], suite,
648                                   files[file]["architecture"]))
649             ql = q.getresult()
650             if ql:
651                 files[file]["othercomponents"] = ql[0][0]
652
653     # If the .changes file says it has source, it must have source.
654     if changes["architecture"].has_key("source"):
655         if not has_source:
656             reject("no source found and Architecture line in changes mention source.")
657
658         if not has_binaries and Cnf.FindB("Dinstall::Reject::NoSourceOnly"):
659             reject("source only uploads are not supported.")
660
661 ###############################################################################
662
663 def check_dsc():
664     global reprocess
665
666     # Ensure there is source to check
667     if not changes["architecture"].has_key("source"):
668         return 1
669
670     # Find the .dsc
671     dsc_filename = None
672     for file in files.keys():
673         if files[file]["type"] == "dsc":
674             if dsc_filename:
675                 reject("can not process a .changes file with multiple .dsc's.")
676                 return 0
677             else:
678                 dsc_filename = file
679
680     # If there isn't one, we have nothing to do. (We have reject()ed the upload already)
681     if not dsc_filename:
682         reject("source uploads must contain a dsc file")
683         return 0
684
685     # Parse the .dsc file
686     try:
687         dsc.update(daklib.utils.parse_changes(dsc_filename, signing_rules=1))
688     except daklib.utils.cant_open_exc:
689         # if not -n copy_to_holding() will have done this for us...
690         if Options["No-Action"]:
691             reject("%s: can't read file." % (dsc_filename))
692     except daklib.utils.changes_parse_error_exc, line:
693         reject("%s: parse error, can't grok: %s." % (dsc_filename, line))
694     except daklib.utils.invalid_dsc_format_exc, line:
695         reject("%s: syntax error on line %s." % (dsc_filename, line))
696     # Build up the file list of files mentioned by the .dsc
697     try:
698         dsc_files.update(daklib.utils.build_file_list(dsc, is_a_dsc=1))
699     except daklib.utils.no_files_exc:
700         reject("%s: no Files: field." % (dsc_filename))
701         return 0
702     except daklib.utils.changes_parse_error_exc, line:
703         reject("%s: parse error, can't grok: %s." % (dsc_filename, line))
704         return 0
705
706     # Enforce mandatory fields
707     for i in ("format", "source", "version", "binary", "maintainer", "architecture", "files"):
708         if not dsc.has_key(i):
709             reject("%s: missing mandatory field `%s'." % (dsc_filename, i))
710             return 0
711
712     # Validate the source and version fields
713     if not re_valid_pkg_name.match(dsc["source"]):
714         reject("%s: invalid source name '%s'." % (dsc_filename, dsc["source"]))
715     if not re_valid_version.match(dsc["version"]):
716         reject("%s: invalid version number '%s'." % (dsc_filename, dsc["version"]))
717
718     # Bumping the version number of the .dsc breaks extraction by stable's
719     # dpkg-source.  So let's not do that...
720     if dsc["format"] != "1.0":
721         reject("%s: incompatible 'Format' version produced by a broken version of dpkg-dev 1.9.1{3,4}." % (dsc_filename))
722
723     # Validate the Maintainer field
724     try:
725         daklib.utils.fix_maintainer (dsc["maintainer"])
726     except daklib.utils.ParseMaintError, msg:
727         reject("%s: Maintainer field ('%s') failed to parse: %s" \
728                % (dsc_filename, dsc["maintainer"], msg))
729
730     # Validate the build-depends field(s)
731     for field_name in [ "build-depends", "build-depends-indep" ]:
732         field = dsc.get(field_name)
733         if field:
734             # Check for broken dpkg-dev lossage...
735             if field.startswith("ARRAY"):
736                 reject("%s: invalid %s field produced by a broken version of dpkg-dev (1.10.11)" % (dsc_filename, field_name.title()))
737
738             # Have apt try to parse them...
739             try:
740                 apt_pkg.ParseSrcDepends(field)
741             except:
742                 reject("%s: invalid %s field (can not be parsed by apt)." % (dsc_filename, field_name.title()))
743                 pass
744
745     # Ensure the version number in the .dsc matches the version number in the .changes
746     epochless_dsc_version = daklib.utils.re_no_epoch.sub('', dsc["version"])
747     changes_version = files[dsc_filename]["version"]
748     if epochless_dsc_version != files[dsc_filename]["version"]:
749         reject("version ('%s') in .dsc does not match version ('%s') in .changes." % (epochless_dsc_version, changes_version))
750
751     # Ensure there is a .tar.gz in the .dsc file
752     has_tar = 0
753     for f in dsc_files.keys():
754         m = daklib.utils.re_issource.match(f)
755         if not m:
756             reject("%s: %s in Files field not recognised as source." % (dsc_filename, f))
757             continue
758         type = m.group(3)
759         if type == "orig.tar.gz" or type == "tar.gz":
760             has_tar = 1
761     if not has_tar:
762         reject("%s: no .tar.gz or .orig.tar.gz in 'Files' field." % (dsc_filename))
763
764     # Ensure source is newer than existing source in target suites
765     reject(Upload.check_source_against_db(dsc_filename),"")
766
767     (reject_msg, is_in_incoming) = Upload.check_dsc_against_db(dsc_filename)
768     reject(reject_msg, "")
769     if is_in_incoming:
770         if not Options["No-Action"]:
771             copy_to_holding(is_in_incoming)
772         orig_tar_gz = os.path.basename(is_in_incoming)
773         files[orig_tar_gz] = {}
774         files[orig_tar_gz]["size"] = os.stat(orig_tar_gz)[stat.ST_SIZE]
775         files[orig_tar_gz]["md5sum"] = dsc_files[orig_tar_gz]["md5sum"]
776         files[orig_tar_gz]["section"] = files[dsc_filename]["section"]
777         files[orig_tar_gz]["priority"] = files[dsc_filename]["priority"]
778         files[orig_tar_gz]["component"] = files[dsc_filename]["component"]
779         files[orig_tar_gz]["type"] = "orig.tar.gz"
780         reprocess = 2
781
782     return 1
783
784 ################################################################################
785
786 def get_changelog_versions(source_dir):
787     """Extracts a the source package and (optionally) grabs the
788     version history out of debian/changelog for the BTS."""
789
790     # Find the .dsc (again)
791     dsc_filename = None
792     for file in files.keys():
793         if files[file]["type"] == "dsc":
794             dsc_filename = file
795
796     # If there isn't one, we have nothing to do. (We have reject()ed the upload already)
797     if not dsc_filename:
798         return
799
800     # Create a symlink mirror of the source files in our temporary directory
801     for f in files.keys():
802         m = daklib.utils.re_issource.match(f)
803         if m:
804             src = os.path.join(source_dir, f)
805             # If a file is missing for whatever reason, give up.
806             if not os.path.exists(src):
807                 return
808             type = m.group(3)
809             if type == "orig.tar.gz" and pkg.orig_tar_gz:
810                 continue
811             dest = os.path.join(os.getcwd(), f)
812             os.symlink(src, dest)
813
814     # If the orig.tar.gz is not a part of the upload, create a symlink to the
815     # existing copy.
816     if pkg.orig_tar_gz:
817         dest = os.path.join(os.getcwd(), os.path.basename(pkg.orig_tar_gz))
818         os.symlink(pkg.orig_tar_gz, dest)
819
820     # Extract the source
821     cmd = "dpkg-source -sn -x %s" % (dsc_filename)
822     (result, output) = commands.getstatusoutput(cmd)
823     if (result != 0):
824         reject("'dpkg-source -x' failed for %s [return code: %s]." % (dsc_filename, result))
825         reject(daklib.utils.prefix_multi_line_string(output, " [dpkg-source output:] "), "")
826         return
827
828     if not Cnf.Find("Dir::Queue::BTSVersionTrack"):
829         return
830
831     # Get the upstream version
832     upstr_version = daklib.utils.re_no_epoch.sub('', dsc["version"])
833     if re_strip_revision.search(upstr_version):
834         upstr_version = re_strip_revision.sub('', upstr_version)
835
836     # Ensure the changelog file exists
837     changelog_filename = "%s-%s/debian/changelog" % (dsc["source"], upstr_version)
838     if not os.path.exists(changelog_filename):
839         reject("%s: debian/changelog not found in extracted source." % (dsc_filename))
840         return
841
842     # Parse the changelog
843     dsc["bts changelog"] = ""
844     changelog_file = daklib.utils.open_file(changelog_filename)
845     for line in changelog_file.readlines():
846         m = re_changelog_versions.match(line)
847         if m:
848             dsc["bts changelog"] += line
849     changelog_file.close()
850
851     # Check we found at least one revision in the changelog
852     if not dsc["bts changelog"]:
853         reject("%s: changelog format not recognised (empty version tree)." % (dsc_filename))
854
855 ########################################
856
857 def check_source():
858     # Bail out if:
859     #    a) there's no source 
860     # or b) reprocess is 2 - we will do this check next time when orig.tar.gz is in 'files'
861     # or c) the orig.tar.gz is MIA
862     if not changes["architecture"].has_key("source") or reprocess == 2 \
863        or pkg.orig_tar_gz == -1:
864         return
865
866     # Create a temporary directory to extract the source into
867     if Options["No-Action"]:
868         tmpdir = tempfile.mktemp()
869     else:
870         # We're in queue/holding and can create a random directory.
871         tmpdir = "%s" % (os.getpid())
872     os.mkdir(tmpdir)
873
874     # Move into the temporary directory
875     cwd = os.getcwd()
876     os.chdir(tmpdir)
877
878     # Get the changelog version history
879     get_changelog_versions(cwd)
880
881     # Move back and cleanup the temporary tree
882     os.chdir(cwd)
883     try:
884         shutil.rmtree(tmpdir)
885     except OSError, e:
886         if errno.errorcode[e.errno] != 'EACCES':
887             daklib.utils.fubar("%s: couldn't remove tmp dir for source tree." % (dsc["source"]))
888
889         reject("%s: source tree could not be cleanly removed." % (dsc["source"]))
890         # We probably have u-r or u-w directories so chmod everything
891         # and try again.
892         cmd = "chmod -R u+rwx %s" % (tmpdir)
893         result = os.system(cmd)
894         if result != 0:
895             daklib.utils.fubar("'%s' failed with result %s." % (cmd, result))
896         shutil.rmtree(tmpdir)
897     except:
898         daklib.utils.fubar("%s: couldn't remove tmp dir for source tree." % (dsc["source"]))
899
900 ################################################################################
901
902 # FIXME: should be a debian specific check called from a hook
903
904 def check_urgency ():
905     if changes["architecture"].has_key("source"):
906         if not changes.has_key("urgency"):
907             changes["urgency"] = Cnf["Urgency::Default"]
908         if changes["urgency"] not in Cnf.ValueList("Urgency::Valid"):
909             reject("%s is not a valid urgency; it will be treated as %s by testing." % (changes["urgency"], Cnf["Urgency::Default"]), "Warning: ")
910             changes["urgency"] = Cnf["Urgency::Default"]
911         changes["urgency"] = changes["urgency"].lower()
912
913 ################################################################################
914
915 def check_hashes ():
916     # Make sure we recognise the format of the Files: field
917     format = changes.get("format", "0.0").split(".",1)
918     if len(format) == 2:
919         format = int(format[0]), int(format[1])
920     else:
921         format = int(float(format[0])), 0
922
923     check_hash(".changes", files, "md5sum", apt_pkg.md5sum)
924     check_hash(".dsc", dsc_files, "md5sum", apt_pkg.md5sum)
925
926     if format >= (1,8):
927         hashes = [("sha1", apt_pkg.sha1sum),
928                   ("sha256", apt_pkg.sha256sum)]
929     else:
930         hashes = []
931
932     for x in changes:
933         if x.startswith("checksum-"):
934             h = x.split("-",1)[1] 
935             if h not in dict(hashes):
936                 reject("Unsupported checksum field in .changes" % (h))
937
938     for x in dsc:
939         if x.startswith("checksum-"):
940             h = x.split("-",1)[1] 
941             if h not in dict(hashes):
942                 reject("Unsupported checksum field in .dsc" % (h))
943
944     for h,f in hashes:
945         try:
946             fs = daklib.utils.build_file_list(changes, 0, "checksums-%s" % h, h)
947             check_hash(".changes %s" % (h), fs, h, f, files)
948         except daklib.utils.no_files_exc:
949             reject("No Checksums-%s: field in .changes file" % (h))
950
951         if "source" not in changes["architecture"]: continue
952
953         try:
954             fs = daklib.utils.build_file_list(dsc, 1, "checksums-%s" % h, h)
955             check_hash(".dsc %s" % (h), fs, h, f, dsc_files)
956         except daklib.utils.no_files_exc:
957             reject("No Checksums-%s: field in .changes file" % (h))
958
959 ################################################################################
960
961 def check_hash (where, files, key, testfn, basedict = None):
962     if basedict:
963         for file in basedict.keys():
964             if file not in files:
965                 reject("%s: no %s checksum" % (file, key))
966
967     for file in files.keys():
968         if basedict and file not in basedict:
969             reject("%s: extraneous entry in %s checksums" % (file, key))
970
971         try:
972             file_handle = daklib.utils.open_file(file)
973         except daklib.utils.cant_open_exc:
974             continue
975
976         # Check hash
977         if testfn(file_handle) != files[file][key]:
978             reject("%s: %s check failed." % (file, key))
979         file_handle.close()
980         # Check size
981         actual_size = os.stat(file)[stat.ST_SIZE]
982         size = int(files[file]["size"])
983         if size != actual_size:
984             reject("%s: actual file size (%s) does not match size (%s) in %s"
985                    % (file, actual_size, size, where))
986
987 ################################################################################
988
989 # Sanity check the time stamps of files inside debs.
990 # [Files in the near future cause ugly warnings and extreme time
991 #  travel can cause errors on extraction]
992
993 def check_timestamps():
994     class Tar:
995         def __init__(self, future_cutoff, past_cutoff):
996             self.reset()
997             self.future_cutoff = future_cutoff
998             self.past_cutoff = past_cutoff
999
1000         def reset(self):
1001             self.future_files = {}
1002             self.ancient_files = {}
1003
1004         def callback(self, Kind,Name,Link,Mode,UID,GID,Size,MTime,Major,Minor):
1005             if MTime > self.future_cutoff:
1006                 self.future_files[Name] = MTime
1007             if MTime < self.past_cutoff:
1008                 self.ancient_files[Name] = MTime
1009     ####
1010
1011     future_cutoff = time.time() + int(Cnf["Dinstall::FutureTimeTravelGrace"])
1012     past_cutoff = time.mktime(time.strptime(Cnf["Dinstall::PastCutoffYear"],"%Y"))
1013     tar = Tar(future_cutoff, past_cutoff)
1014     for filename in files.keys():
1015         if files[filename]["type"] == "deb":
1016             tar.reset()
1017             try:
1018                 deb_file = daklib.utils.open_file(filename)
1019                 apt_inst.debExtract(deb_file,tar.callback,"control.tar.gz")
1020                 deb_file.seek(0)
1021                 try:
1022                     apt_inst.debExtract(deb_file,tar.callback,"data.tar.gz")
1023                 except SystemError, e:
1024                     # If we can't find a data.tar.gz, look for data.tar.bz2 instead.
1025                     if not re.search(r"Cannot f[ui]nd chunk data.tar.gz$", str(e)):
1026                         raise
1027                     deb_file.seek(0)
1028                     apt_inst.debExtract(deb_file,tar.callback,"data.tar.bz2")
1029                 deb_file.close()
1030                 #
1031                 future_files = tar.future_files.keys()
1032                 if future_files:
1033                     num_future_files = len(future_files)
1034                     future_file = future_files[0]
1035                     future_date = tar.future_files[future_file]
1036                     reject("%s: has %s file(s) with a time stamp too far into the future (e.g. %s [%s])."
1037                            % (filename, num_future_files, future_file,
1038                               time.ctime(future_date)))
1039                 #
1040                 ancient_files = tar.ancient_files.keys()
1041                 if ancient_files:
1042                     num_ancient_files = len(ancient_files)
1043                     ancient_file = ancient_files[0]
1044                     ancient_date = tar.ancient_files[ancient_file]
1045                     reject("%s: has %s file(s) with a time stamp too ancient (e.g. %s [%s])."
1046                            % (filename, num_ancient_files, ancient_file,
1047                               time.ctime(ancient_date)))
1048             except:
1049                 reject("%s: deb contents timestamp check failed [%s: %s]" % (filename, sys.exc_type, sys.exc_value))
1050
1051 ################################################################################
1052
1053 def lookup_uid_from_fingerprint(fpr):
1054     q = Upload.projectB.query("SELECT u.uid, u.name FROM fingerprint f, uid u WHERE f.uid = u.id AND f.fingerprint = '%s'" % (fpr))
1055     qs = q.getresult()
1056     if len(qs) == 0:
1057         return (None, None)
1058     else:
1059         return qs[0]
1060
1061 def check_signed_by_key():
1062     """Ensure the .changes is signed by an authorized uploader."""
1063
1064     (uid, uid_name) = lookup_uid_from_fingerprint(changes["fingerprint"])
1065     if uid_name == None:
1066         uid_name = ""
1067
1068     # match claimed name with actual name:
1069     if uid == None:
1070         uid, uid_email = changes["fingerprint"], uid
1071         may_nmu, may_sponsor = 1, 1
1072         # XXX by default new dds don't have a fingerprint/uid in the db atm,
1073         #     and can't get one in there if we don't allow nmu/sponsorship
1074     elif uid[:3] == "dm:":
1075         uid_email = uid[3:]
1076         may_nmu, may_sponsor = 0, 0
1077     else:
1078         uid_email = "%s@debian.org" % (uid)
1079         may_nmu, may_sponsor = 1, 1
1080
1081     if uid_email in [changes["maintaineremail"], changes["changedbyemail"]]:
1082         sponsored = 0
1083     elif uid_name in [changes["maintainername"], changes["changedbyname"]]:
1084         sponsored = 0
1085         if uid_name == "": sponsored = 1
1086     else:
1087         sponsored = 1
1088         if ("source" in changes["architecture"] and
1089             daklib.utils.is_email_alias(uid_email)):
1090             sponsor_addresses = daklib.utils.gpg_get_key_addresses(changes["fingerprint"])
1091             if (changes["maintaineremail"] not in sponsor_addresses and
1092                 changes["changedbyemail"] not in sponsor_addresses):
1093                 changes["sponsoremail"] = uid_email
1094
1095     if sponsored and not may_sponsor: 
1096         reject("%s is not authorised to sponsor uploads" % (uid))
1097
1098     if not sponsored and not may_nmu:
1099         source_ids = []
1100         check_suites = changes["distribution"].keys()
1101         if "unstable" not in check_suites: check_suites.append("unstable")
1102         for suite in check_suites:
1103             suite_id = daklib.database.get_suite_id(suite)
1104             q = Upload.projectB.query("SELECT s.id FROM source s JOIN src_associations sa ON (s.id = sa.source) WHERE s.source = '%s' AND sa.suite = %d" % (changes["source"], suite_id))
1105             for si in q.getresult():
1106                 if si[0] not in source_ids: source_ids.append(si[0])
1107
1108         print "source_ids: %s" % (",".join([str(x) for x in source_ids]))
1109
1110         is_nmu = 1
1111         for si in source_ids:
1112             is_nmu = 1
1113             q = Upload.projectB.query("SELECT m.name FROM maintainer m WHERE m.id IN (SELECT maintainer FROM src_uploaders WHERE src_uploaders.source = %s)" % (si))
1114             for m in q.getresult():
1115                 (rfc822, rfc2047, name, email) = daklib.utils.fix_maintainer(m[0])
1116                 if email == uid_email or name == uid_name:
1117                     is_nmu=0
1118                     break
1119         if is_nmu:
1120             reject("%s may not upload/NMU source package %s" % (uid, changes["source"]))
1121
1122         for b in changes["binary"].keys():
1123             for suite in changes["distribution"].keys():
1124                 suite_id = daklib.database.get_suite_id(suite)
1125                 q = Upload.projectB.query("SELECT DISTINCT s.source FROM source s JOIN binaries b ON (s.id = b.source) JOIN bin_associations ba On (b.id = ba.bin) WHERE b.package = '%s' AND ba.suite = %s" % (b, suite_id))
1126                 for s in q.getresult():
1127                     if s[0] != changes["source"]:
1128                         reject("%s may not hijack %s from source package %s in suite %s" % (uid, b, s, suite))
1129
1130         for file in files.keys():
1131             if files[file].has_key("byhand"): 
1132                 reject("%s may not upload BYHAND file %s" % (uid, file))
1133             if files[file].has_key("new"):
1134                 reject("%s may not upload NEW file %s" % (uid, file))
1135
1136     # The remaining checks only apply to binary-only uploads right now
1137     if changes["architecture"].has_key("source"):
1138         return
1139
1140     if not Cnf.Exists("Binary-Upload-Restrictions"):
1141         return
1142
1143     restrictions = Cnf.SubTree("Binary-Upload-Restrictions")
1144
1145     # If the restrictions only apply to certain components make sure
1146     # that the upload is actual targeted there.
1147     if restrictions.Exists("Components"):
1148         restricted_components = restrictions.SubTree("Components").ValueList()
1149         is_restricted = False
1150         for file in files:
1151             if files[file]["component"] in restricted_components:
1152                 is_restricted = True
1153                 break
1154         if not is_restricted:
1155             return
1156
1157     # Assuming binary only upload restrictions are in place we then
1158     # iterate over suite and architecture checking the key is in the
1159     # allowed list.  If no allowed list exists for a given suite or
1160     # architecture it's assumed to be open to anyone.
1161     for suite in changes["distribution"].keys():
1162         if not restrictions.Exists(suite):
1163             continue
1164         for arch in changes["architecture"].keys():
1165             if not restrictions.SubTree(suite).Exists(arch):
1166                 continue
1167             allowed_keys = restrictions.SubTree("%s::%s" % (suite, arch)).ValueList()
1168             if changes["fingerprint"] not in allowed_keys:
1169                 base_filename = os.path.basename(pkg.changes_file)
1170                 reject("%s: not signed by authorised uploader for %s/%s"
1171                        % (base_filename, suite, arch))
1172
1173 ################################################################################
1174 ################################################################################
1175
1176 # If any file of an upload has a recent mtime then chances are good
1177 # the file is still being uploaded.
1178
1179 def upload_too_new():
1180     too_new = 0
1181     # Move back to the original directory to get accurate time stamps
1182     cwd = os.getcwd()
1183     os.chdir(pkg.directory)
1184     file_list = pkg.files.keys()
1185     file_list.extend(pkg.dsc_files.keys())
1186     file_list.append(pkg.changes_file)
1187     for file in file_list:
1188         try:
1189             last_modified = time.time()-os.path.getmtime(file)
1190             if last_modified < int(Cnf["Dinstall::SkipTime"]):
1191                 too_new = 1
1192                 break
1193         except:
1194             pass
1195     os.chdir(cwd)
1196     return too_new
1197
1198 ################################################################################
1199
1200 def action ():
1201     # changes["distribution"] may not exist in corner cases
1202     # (e.g. unreadable changes files)
1203     if not changes.has_key("distribution") or not isinstance(changes["distribution"], DictType):
1204         changes["distribution"] = {}
1205
1206     (summary, short_summary) = Upload.build_summaries()
1207
1208     # q-unapproved hax0ring
1209     queue_info = {
1210          "New": { "is": is_new, "process": acknowledge_new },
1211          "Autobyhand" : { "is" : is_autobyhand, "process": do_autobyhand },
1212          "Byhand" : { "is": is_byhand, "process": do_byhand },
1213          "OldStableUpdate" : { "is": is_oldstableupdate, 
1214                                 "process": do_oldstableupdate },
1215          "StableUpdate" : { "is": is_stableupdate, "process": do_stableupdate },
1216          "Unembargo" : { "is": is_unembargo, "process": queue_unembargo },
1217          "Embargo" : { "is": is_embargo, "process": queue_embargo },
1218     }
1219     queues = [ "New", "Autobyhand", "Byhand" ]
1220     if Cnf.FindB("Dinstall::SecurityQueueHandling"):
1221         queues += [ "Unembargo", "Embargo" ]
1222     else:
1223         queues += [ "OldStableUpdate", "StableUpdate" ]
1224
1225     (prompt, answer) = ("", "XXX")
1226     if Options["No-Action"] or Options["Automatic"]:
1227         answer = 'S'
1228
1229     queuekey = ''
1230
1231     if reject_message.find("Rejected") != -1:
1232         if upload_too_new():
1233             print "SKIP (too new)\n" + reject_message,
1234             prompt = "[S]kip, Quit ?"
1235         else:
1236             print "REJECT\n" + reject_message,
1237             prompt = "[R]eject, Skip, Quit ?"
1238             if Options["Automatic"]:
1239                 answer = 'R'
1240     else:
1241         queue = None
1242         for q in queues:
1243             if queue_info[q]["is"]():
1244                 queue = q
1245                 break
1246         if queue:
1247             print "%s for %s\n%s%s" % (
1248                 queue.upper(), ", ".join(changes["distribution"].keys()), 
1249                 reject_message, summary),
1250             queuekey = queue[0].upper()
1251             if queuekey in "RQSA":
1252                 queuekey = "D"
1253                 prompt = "[D]ivert, Skip, Quit ?"
1254             else:
1255                 prompt = "[%s]%s, Skip, Quit ?" % (queuekey, queue[1:].lower())
1256             if Options["Automatic"]:
1257                 answer = queuekey
1258         else:
1259             print "ACCEPT\n" + reject_message + summary,
1260             prompt = "[A]ccept, Skip, Quit ?"
1261             if Options["Automatic"]:
1262                 answer = 'A'
1263
1264     while prompt.find(answer) == -1:
1265         answer = daklib.utils.our_raw_input(prompt)
1266         m = daklib.queue.re_default_answer.match(prompt)
1267         if answer == "":
1268             answer = m.group(1)
1269         answer = answer[:1].upper()
1270
1271     if answer == 'R':
1272         os.chdir (pkg.directory)
1273         Upload.do_reject(0, reject_message)
1274     elif answer == 'A':
1275         accept(summary, short_summary)
1276         remove_from_unchecked()
1277     elif answer == queuekey:
1278         queue_info[queue]["process"](summary, short_summary)
1279         remove_from_unchecked()
1280     elif answer == 'Q':
1281         sys.exit(0)
1282
1283 def remove_from_unchecked():
1284     os.chdir (pkg.directory)
1285     for file in files.keys():
1286         os.unlink(file)
1287     os.unlink(pkg.changes_file)
1288
1289 ################################################################################
1290
1291 def accept (summary, short_summary):
1292     Upload.accept(summary, short_summary)
1293     Upload.check_override()
1294
1295 ################################################################################
1296
1297 def move_to_dir (dest, perms=0660, changesperms=0664):
1298     daklib.utils.move (pkg.changes_file, dest, perms=changesperms)
1299     file_keys = files.keys()
1300     for file in file_keys:
1301         daklib.utils.move (file, dest, perms=perms)
1302
1303 ################################################################################
1304
1305 def is_unembargo ():
1306     q = Upload.projectB.query(
1307       "SELECT package FROM disembargo WHERE package = '%s' AND version = '%s'" % 
1308       (changes["source"], changes["version"]))
1309     ql = q.getresult()
1310     if ql:
1311         return 1
1312
1313     oldcwd = os.getcwd()
1314     os.chdir(Cnf["Dir::Queue::Disembargo"])
1315     disdir = os.getcwd()
1316     os.chdir(oldcwd)
1317
1318     if pkg.directory == disdir:
1319         if changes["architecture"].has_key("source"):
1320             if Options["No-Action"]: return 1
1321
1322             Upload.projectB.query(
1323               "INSERT INTO disembargo (package, version) VALUES ('%s', '%s')" % 
1324               (changes["source"], changes["version"]))
1325             return 1
1326
1327     return 0
1328
1329 def queue_unembargo (summary, short_summary):
1330     print "Moving to UNEMBARGOED holding area."
1331     Logger.log(["Moving to unembargoed", pkg.changes_file])
1332
1333     Upload.dump_vars(Cnf["Dir::Queue::Unembargoed"])
1334     move_to_dir(Cnf["Dir::Queue::Unembargoed"])
1335     Upload.queue_build("unembargoed", Cnf["Dir::Queue::Unembargoed"])
1336
1337     # Check for override disparities
1338     Upload.Subst["__SUMMARY__"] = summary
1339     Upload.check_override()
1340
1341 ################################################################################
1342
1343 def is_embargo ():
1344     # if embargoed queues are enabled always embargo
1345     return 1
1346
1347 def queue_embargo (summary, short_summary):
1348     print "Moving to EMBARGOED holding area."
1349     Logger.log(["Moving to embargoed", pkg.changes_file])
1350
1351     Upload.dump_vars(Cnf["Dir::Queue::Embargoed"])
1352     move_to_dir(Cnf["Dir::Queue::Embargoed"])
1353     Upload.queue_build("embargoed", Cnf["Dir::Queue::Embargoed"])
1354
1355     # Check for override disparities
1356     Upload.Subst["__SUMMARY__"] = summary
1357     Upload.check_override()
1358
1359 ################################################################################
1360
1361 def is_stableupdate ():
1362     if not changes["distribution"].has_key("proposed-updates"):
1363         return 0
1364
1365     if not changes["architecture"].has_key("source"):
1366         pusuite = daklib.database.get_suite_id("proposed-updates")
1367         q = Upload.projectB.query(
1368           "SELECT S.source FROM source s JOIN src_associations sa ON (s.id = sa.source) WHERE s.source = '%s' AND s.version = '%s' AND sa.suite = %d" % 
1369           (changes["source"], changes["version"], pusuite))
1370         ql = q.getresult()
1371         if ql:
1372             # source is already in proposed-updates so no need to hold
1373             return 0
1374
1375     return 1
1376
1377 def do_stableupdate (summary, short_summary):
1378     print "Moving to PROPOSED-UPDATES holding area."
1379     Logger.log(["Moving to proposed-updates", pkg.changes_file]);
1380
1381     Upload.dump_vars(Cnf["Dir::Queue::ProposedUpdates"]);
1382     move_to_dir(Cnf["Dir::Queue::ProposedUpdates"])
1383
1384     # Check for override disparities
1385     Upload.Subst["__SUMMARY__"] = summary;
1386     Upload.check_override();
1387
1388 ################################################################################
1389
1390 def is_oldstableupdate ():
1391     if not changes["distribution"].has_key("oldstable-proposed-updates"):
1392         return 0
1393
1394     if not changes["architecture"].has_key("source"):
1395         pusuite = daklib.database.get_suite_id("oldstable-proposed-updates")
1396         q = Upload.projectB.query(
1397           "SELECT S.source FROM source s JOIN src_associations sa ON (s.id = sa.source) WHERE s.source = '%s' AND s.version = '%s' AND sa.suite = %d" % 
1398           (changes["source"], changes["version"], pusuite))
1399         ql = q.getresult()
1400         if ql:
1401             # source is already in oldstable-proposed-updates so no need to hold
1402             return 0
1403
1404     return 1
1405
1406 def do_oldstableupdate (summary, short_summary):
1407     print "Moving to OLDSTABLE-PROPOSED-UPDATES holding area."
1408     Logger.log(["Moving to oldstable-proposed-updates", pkg.changes_file]);
1409
1410     Upload.dump_vars(Cnf["Dir::Queue::OldProposedUpdates"]);
1411     move_to_dir(Cnf["Dir::Queue::OldProposedUpdates"])
1412
1413     # Check for override disparities
1414     Upload.Subst["__SUMMARY__"] = summary;
1415     Upload.check_override();
1416
1417 ################################################################################
1418
1419 def is_autobyhand ():
1420     all_auto = 1
1421     any_auto = 0
1422     for file in files.keys():
1423         if files[file].has_key("byhand"):
1424             any_auto = 1
1425
1426             # filename is of form "PKG_VER_ARCH.EXT" where PKG, VER and ARCH
1427             # don't contain underscores, and ARCH doesn't contain dots.
1428             # further VER matches the .changes Version:, and ARCH should be in
1429             # the .changes Architecture: list.
1430             if file.count("_") < 2:
1431                 all_auto = 0
1432                 continue
1433         
1434             (pkg, ver, archext) = file.split("_", 2)
1435             if archext.count(".") < 1 or changes["version"] != ver:
1436                 all_auto = 0
1437                 continue
1438
1439             ABH = Cnf.SubTree("AutomaticByHandPackages")
1440             if not ABH.has_key(pkg) or \
1441               ABH["%s::Source" % (pkg)] != changes["source"]:
1442                 print "not match %s %s" % (pkg, changes["source"])
1443                 all_auto = 0
1444                 continue
1445
1446             (arch, ext) = archext.split(".", 1)
1447             if arch not in changes["architecture"]:
1448                 all_auto = 0
1449                 continue
1450
1451             files[file]["byhand-arch"] = arch
1452             files[file]["byhand-script"] = ABH["%s::Script" % (pkg)]
1453
1454     return any_auto and all_auto
1455
1456 def do_autobyhand (summary, short_summary):
1457     print "Attempting AUTOBYHAND."
1458     byhandleft = 0
1459     for file in files.keys():
1460         byhandfile = file
1461         if not files[file].has_key("byhand"):
1462             continue
1463         if not files[file].has_key("byhand-script"):
1464             byhandleft = 1
1465             continue
1466
1467         os.system("ls -l %s" % byhandfile)
1468         result = os.system("%s %s %s %s %s" % (
1469                 files[file]["byhand-script"], byhandfile, 
1470                 changes["version"], files[file]["byhand-arch"],
1471                 os.path.abspath(pkg.changes_file)))
1472         if result == 0:
1473             os.unlink(byhandfile)
1474             del files[file]
1475         else:
1476             print "Error processing %s, left as byhand." % (file)
1477             byhandleft = 1
1478
1479     if byhandleft:
1480         do_byhand(summary, short_summary)
1481     else:
1482         accept(summary, short_summary)
1483
1484 ################################################################################
1485
1486 def is_byhand ():
1487     for file in files.keys():
1488         if files[file].has_key("byhand"):
1489             return 1
1490     return 0
1491
1492 def do_byhand (summary, short_summary):
1493     print "Moving to BYHAND holding area."
1494     Logger.log(["Moving to byhand", pkg.changes_file])
1495
1496     Upload.dump_vars(Cnf["Dir::Queue::Byhand"])
1497     move_to_dir(Cnf["Dir::Queue::Byhand"])
1498
1499     # Check for override disparities
1500     Upload.Subst["__SUMMARY__"] = summary
1501     Upload.check_override()
1502
1503 ################################################################################
1504
1505 def is_new ():
1506     for file in files.keys():
1507         if files[file].has_key("new"):
1508             return 1
1509     return 0
1510
1511 def acknowledge_new (summary, short_summary):
1512     Subst = Upload.Subst
1513
1514     print "Moving to NEW holding area."
1515     Logger.log(["Moving to new", pkg.changes_file])
1516
1517     Upload.dump_vars(Cnf["Dir::Queue::New"])
1518     move_to_dir(Cnf["Dir::Queue::New"])
1519
1520     if not Options["No-Mail"]:
1521         print "Sending new ack."
1522         Subst["__SUMMARY__"] = summary
1523         new_ack_message = daklib.utils.TemplateSubst(Subst,Cnf["Dir::Templates"]+"/process-unchecked.new")
1524         daklib.utils.send_mail(new_ack_message)
1525
1526 ################################################################################
1527
1528 # reprocess is necessary for the case of foo_1.2-1 and foo_1.2-2 in
1529 # Incoming. -1 will reference the .orig.tar.gz, but -2 will not.
1530 # Upload.check_dsc_against_db() can find the .orig.tar.gz but it will
1531 # not have processed it during it's checks of -2.  If -1 has been
1532 # deleted or otherwise not checked by 'dak process-unchecked', the
1533 # .orig.tar.gz will not have been checked at all.  To get round this,
1534 # we force the .orig.tar.gz into the .changes structure and reprocess
1535 # the .changes file.
1536
1537 def process_it (changes_file):
1538     global reprocess, reject_message
1539
1540     # Reset some globals
1541     reprocess = 1
1542     Upload.init_vars()
1543     # Some defaults in case we can't fully process the .changes file
1544     changes["maintainer2047"] = Cnf["Dinstall::MyEmailAddress"]
1545     changes["changedby2047"] = Cnf["Dinstall::MyEmailAddress"]
1546     reject_message = ""
1547
1548     # Absolutize the filename to avoid the requirement of being in the
1549     # same directory as the .changes file.
1550     pkg.changes_file = os.path.abspath(changes_file)
1551
1552     # Remember where we are so we can come back after cd-ing into the
1553     # holding directory.
1554     pkg.directory = os.getcwd()
1555
1556     try:
1557         # If this is the Real Thing(tm), copy things into a private
1558         # holding directory first to avoid replacable file races.
1559         if not Options["No-Action"]:
1560             os.chdir(Cnf["Dir::Queue::Holding"])
1561             copy_to_holding(pkg.changes_file)
1562             # Relativize the filename so we use the copy in holding
1563             # rather than the original...
1564             pkg.changes_file = os.path.basename(pkg.changes_file)
1565         changes["fingerprint"] = daklib.utils.check_signature(pkg.changes_file, reject)
1566         if changes["fingerprint"]:
1567             valid_changes_p = check_changes()
1568         else:
1569             valid_changes_p = 0
1570         if valid_changes_p:
1571             while reprocess:
1572                 check_distributions()
1573                 check_files()
1574                 valid_dsc_p = check_dsc()
1575                 if valid_dsc_p:
1576                     check_source()
1577                 check_hashes()
1578                 check_urgency()
1579                 check_timestamps()
1580                 check_signed_by_key()
1581         Upload.update_subst(reject_message)
1582         action()
1583     except SystemExit:
1584         raise
1585     except:
1586         print "ERROR"
1587         traceback.print_exc(file=sys.stderr)
1588         pass
1589
1590     # Restore previous WD
1591     os.chdir(pkg.directory)
1592
1593 ###############################################################################
1594
1595 def main():
1596     global Cnf, Options, Logger
1597
1598     changes_files = init()
1599
1600     # -n/--dry-run invalidates some other options which would involve things happening
1601     if Options["No-Action"]:
1602         Options["Automatic"] = ""
1603
1604     # Ensure all the arguments we were given are .changes files
1605     for file in changes_files:
1606         if not file.endswith(".changes"):
1607             daklib.utils.warn("Ignoring '%s' because it's not a .changes file." % (file))
1608             changes_files.remove(file)
1609
1610     if changes_files == []:
1611         daklib.utils.fubar("Need at least one .changes file as an argument.")
1612
1613     # Check that we aren't going to clash with the daily cron job
1614
1615     if not Options["No-Action"] and os.path.exists("%s/daily.lock" % (Cnf["Dir::Lock"])) and not Options["No-Lock"]:
1616         daklib.utils.fubar("Archive maintenance in progress.  Try again later.")
1617
1618     # Obtain lock if not in no-action mode and initialize the log
1619
1620     if not Options["No-Action"]:
1621         lock_fd = os.open(Cnf["Dinstall::LockFile"], os.O_RDWR | os.O_CREAT)
1622         try:
1623             fcntl.lockf(lock_fd, fcntl.LOCK_EX | fcntl.LOCK_NB)
1624         except IOError, e:
1625             if errno.errorcode[e.errno] == 'EACCES' or errno.errorcode[e.errno] == 'EAGAIN':
1626                 daklib.utils.fubar("Couldn't obtain lock; assuming another 'dak process-unchecked' is already running.")
1627             else:
1628                 raise
1629         Logger = Upload.Logger = daklib.logging.Logger(Cnf, "process-unchecked")
1630
1631     # debian-{devel-,}-changes@lists.debian.org toggles writes access based on this header
1632     bcc = "X-DAK: dak process-unchecked\nX-Katie: $Revision: 1.65 $"
1633     if Cnf.has_key("Dinstall::Bcc"):
1634         Upload.Subst["__BCC__"] = bcc + "\nBcc: %s" % (Cnf["Dinstall::Bcc"])
1635     else:
1636         Upload.Subst["__BCC__"] = bcc
1637
1638
1639     # Sort the .changes files so that we process sourceful ones first
1640     changes_files.sort(daklib.utils.changes_compare)
1641
1642     # Process the changes files
1643     for changes_file in changes_files:
1644         print "\n" + changes_file
1645         try:
1646             process_it (changes_file)
1647         finally:
1648             if not Options["No-Action"]:
1649                 clean_holding()
1650
1651     accept_count = Upload.accept_count
1652     accept_bytes = Upload.accept_bytes
1653     if accept_count:
1654         sets = "set"
1655         if accept_count > 1:
1656             sets = "sets"
1657         print "Accepted %d package %s, %s." % (accept_count, sets, daklib.utils.size_type(int(accept_bytes)))
1658         Logger.log(["total",accept_count,accept_bytes])
1659
1660     if not Options["No-Action"]:
1661         Logger.close()
1662
1663 ################################################################################
1664
1665 if __name__ == '__main__':
1666     main()
1667