1. Workshop der AG CAA

Zusammenfassungen der Vorträge


Philippe Della Casa / Steffen Knöpke / Philipp Wiemann, IT-gestützte Verfahren in der Archäologie: Erfahrungen mit e-learning-Kursen an der Universität Zürich
An der Abteilung Ur- und Frühgeschichte der Universität Zürich werden seit 2007 e-learning-Module zu IT-gestützten Verfahren in der Archäologie mit Fokus auf den Bachelorlehrgang entwickelt. Zwei solche Module sind bereits realisiert und in der Lehre erprobt worden, ein weiteres ist in Entwicklung.
Bei den bereits laufenden Modulen handelt es sich einerseits um den e-learning-Kurs „Methodische Grundlagen der Archäologie: EDV-gestützte Verfahren“ (Harrismatrix, Seriation, Clusteranalyse, 14C-Daten, Sterbetafeln – mit Übungen unter Verwendung von Stratify, PAST, OxCal, Excel) und andererseits um den Kurs „GIS in der Archäologie“ (Systeme, Datenbanken, Geodaten, räumliche Analyseverfahren – mit Übungen unter Verwendung von ArcGIS); in Vorbereitung ist ein interaktives Lehrmodul mit Theorie, Übungen und Podcasts zum Thema „Archäologie der Alpen“.
Die Kurse werden auf dem CMS „OLAT“ der Universität Zürich erstellt, und dort auch durchgeführt und betreut, d.h. die Studierenden beziehen alle relevanten Informationen wie Kursinfos, Einschreibung, Theorieteile, Aufgabenstellungen und Begleitliteratur über die OLAT-Seiten, sie lösen dort Aufgaben bzw. reichen ihre separat erarbeiteten Übungsresultate ein, und sind über ein Forum miteinander und mit der Kursleitung vernetzt. Lediglich zu Beginn und am Ende des Semesters finden physische Treffen statt: für die Konstituierung der Lerngruppe, und für den Resultate- und Erfahrungsaustausch.
Im Rahmen des Beitrages sollen die Planungs-, Entwicklungs- und Umsetzungsschritte dieser Lehrmodule vorgestellt und ihr Einsatz in der universitären Lehre diskutiert werden.


Axel Posluschny, Über alle Grenzen – Datenaustausch zu archäologischen Fundstellen in Deutschland
Archäologische Forschung basiert seit jeher auf Daten mit einem geographischen Bezug. Insbesondere Fundstellendaten mit ihren Koordinaten bilden dabei die Grundlage zahlreicher Analysen, vor allem auch nachdem Geographische Informationssysteme (GIS) auch in der Archäologie eine weite Verbreitung gefunden haben.
Seit Einführung der Landesdenkmalämter in der Bundesrepublik werden Fundstellen mit Koordinaten und weiteren ergänzenden Informationen (Datierung, Funde, Ausgrabungen, ...) in Ortakten archiviert; im Rahmen der zunehmenden Digitalisierung findet diese Archivierung mittlerweile überwiegend in Form von Datenbanken statt. Bedingt durch die Kulturhoheit der Länder hat sich dabei eine Vielzahl an unterschiedlichen Systemen in den einzelnen Bundesländern entwickelt und etabliert, die sich sowohl in der verwendeten Software wie auch in der Datenstruktur zuweilen deutlich unterscheiden. Dennoch sind diese Datenbanken über die Zwecke der archäologischen Denkmalpflege hinaus gerade auch für die Forschung, insbesondere auch für Magister- und Promotionsarbeiten eine wichtige Arbeitsgrundlage. Wegen ihrer Verschiedenartigkeit war es aber bislang nur eingeschränkt möglich, auch über die Grenzen der Bundesländer hinweg auf Daten zugreifen und diese nutzen zu können.
Um einen bundeslandübergreifenden Datenaustausch sowohl für Belange der Denkmalpflege als auch für die archäologische Forschung zu ermöglichen, hat der Verband der Landesarchäologen im März 2005 die Kommission „Archäologie und Informationssysteme“ (http://www.landesarchaeologen.de/kommissionen/komm_informationssysteme/ag_informationssysteme.html) gegründet. Vier Arbeitsgruppen beschäftigen sich mit Aspekten der Archivierung (http://www.landesarchaeologen.de/kommissionen/komm_informationssysteme/ag_is_archivierung.html), mit Rechtsfragen, mit der Harmonisierung bestehender Thesauri sowie mit der Entwicklung eines Austauschsystems, mit dessen Hilfe Daten zwischen den Denkmalfachbehörden verschiedener Bundesländer aber auch mit interessierten Anwendern aus der archäologischen Forschung ausgetauscht werden können.
Der Vortrag wird den ADeX genannten Standard (Archäologischer Datenexport; derzeit Version 1.2, http://www.landesarchaeologen.de/kommissionen/komm_informationssysteme/ag_is_adex_00.html) vorstellen und die Möglichkeiten insbesondere für die archäologische Forschung beleuchten. Ziel ist es, durch eine verstärkte Nachfrage aus Reihen von Absolventen die Entwicklung des Austauschformats weiter voran zu treiben und auch in Bundesländern zu etablieren, die aus organisatorischen und finanziellen Gründen das Format noch nicht vollständig als Exportformat in ihren Datenbanksystemen implementiert haben.


Matthias Lang, ArcheoInf – Bereitstellung von Primärdaten archäologischer Projekte
Das interdisziplinäre Projekt ArcheoInf schafft eine Umgebung, in der Primärdaten archäologischer Forschung, die bisher in heterogenen Datenstrukturen vorgehalten wurden, unter Wahrung ihrer Autonomie in einer gemeinsamen Umgebung web-basiert verfügbar macht. Mit diesen archäologischen Primärdaten können nun    bibliographische Informationen über ein Dokumentenrepositorium sowie Geo-Informationen über einen Geo-Server verbunden und in einem gemeinsamen Web-Interface dargestellt werden. Mit einem Archivserver sorgt ArcheoInf für die langfristige Haltung der eingespielten Daten.
Herzstück von ArcheoInf ist der sog. Mediator, ein Werkzeug, welches in der Lage ist die heterogenen Daten zu verbinden und bis zu einem gewissen Grad zu verstehen und zu interpretieren. Um dieses Verständnis des archäologischen Fachwissens zu ermöglichen, liegt dem Mediator eine komplexe Ontologie zu Grunde, welche das Fachwissen in Klassen und Instanzen beschreibt. Diese Ontologie basiert auf einer für den archäologischen Bereich erstellten Umformung und Erweiterung des CIDOC CRM-Modells durch die englische Denkmalbehörde English Heritage. Diese Erweiterungen betreffen hauptsächlich die Verbindung bibliographischer sowie geographischer Informationen mit den archäologischen Fachdaten. Die einzelnen Klassen des Modells werden durch möglichst umfassende Thesauri mit archäologischem Fachwissen gefüllt, diese ermöglichen erst eine sinnvolle und differenzierte Suche in den Primärdaten. Zur Erstellung der Thesauri wurde sich für SKOS-Core entschieden. Diese Sprache ermöglicht die Generierung mehrsprachiger, polyhierarchischer sowie web-fähiger Vokabulare.
Aufgrund der Semantic-Web-fähigkeit des Mediators können die eingespielten Dantenbanken in ihrer Struktur unverändert bleiben, wenn diese den formalen Mindestanforderungen entsprechen. Sie werden von den beteiligten Projekten weitergepflegt; bereits abgeschlossene Sammlungen können auf dem von ArcheoInf zur Verfügung gestellten Archivserver langfristig abgelegt werden. Die Daten werden dort in ein standarisiertes XML-Format konvertiert und gespeichert, was sie von der zur Erstellung verwendeten Software unabhängig macht. Auf diese Weise ist eine langfristige Nutzung der Daten möglich und bisher nicht netzwerkfähige Datenbanken können über das Internet anderen Forschern zugänglich gemacht werden.
ArcheoInf füllt sich dem Open Access-Gedanken verpflichtet, verfügt jedoch über eine komplexe Rechteverwaltung, welche das Datenmaterial laufender Projekte schützt und nur befugten Nutzern zugänglich macht.
In den vergangenen Wochen konnte ein Prototyp von ArcheoInf seinen Betrieb aufnehmen, der erste Funktionalitäten des Mediators, des Geo-Servers sowie des Dokumentenrepositoriums enthällt.
Betrieben wird ArchoInf vom Archäologischen Institut der Universität Göttingen, dem Lehrstuhl für Softwaretechnologie in der Fakultät für Informatik an der Technischen Universität Dortmund, dem Fachbereich für Vermessung und Geoinformatik der Hochschule Bochum sowie den Universitätsbibliotheken in Bochum und Dortmund. Finanziert wird das Projekt durch die Deutsche Forschungsgemeinschaft.


Günther Schörner, Von Scherben zu Clustern: Der Vergleich von Fundkomplexen aus Oberflächenbegehung und Ausgrabung sowie die Interpretation von Formierungsprozessen mit Hilfe statistischer Methoden
Anhand des Beispiels der Grabung ‚Il Monte’, die einem römischen Siedlungsplatz in der Nähe von San Gimignano gilt, wird der Nutzen statistischer Methoden bei der Interpretation einer Einzelgrabung exemplarisch vorgeführt.
In einem kürzeren ersten Teil soll der Vergleich von Keramikassemblagen, die an der Oberfläche, im Pflughorizont und in tiefer liegenden antiken Depositen gefunden wurden, mit Hilfe von Korrespondenz- und Clusteranalyse im Mittelpunkt stehen. Die erzielten Resultate können dabei zur Überprüfung und ‚Kalibrierung’ von Surveyda-ten herangezogen werden, da die Relation von durch Begehung und Grabung ge-wonnener Funde kritisch betrachtet werden kann.
In einem zweiten Teil soll am konkreten Beispiel ‚Il Monte’ das Problem der archäo-logischen Befundbildung untersucht werden. Neben Korrespondenz- und Clusterana-lyse soll vor allem auch die in der Historischen Archäologie entwickelte Methode zur Bestimmung des Durchschnittsalters einzelner Fundkomplexe (South-Formel) heran-gezogen werden. Dadurch kann gezeigt werden, wie wiederum statistische Analysen bei adäquater ‚Versuchsanordnung’, d.h. passender Vorgehensweise bei der prakti-schen Grabungstätigkeit, helfen können, Formierungsprozesse zu klären und somit grundsätzlich zu einem besseren Verständnis der Grabungssituation zu gelangen.


Martin Auer, SPSS in der Auswertung von Siedlungskeramik
Die statistische Auswertung von archäologischem Fundmaterial ist bei größeren Fundmengen nur mehr computergestützt möglich. Es werden in der Archäologie verschiedene Programmformate angewandt und oftmals auf individuelle Anforderungen angepasst. Das Statistikprogramm SPSS, ursprünglich entwickelt für das Feld der „Sozialwissenschaften“, ist ein kommerzielles Programmpaket, das nicht individuell umgestaltet werden kann. Für die Problemstellungen, die sich im Forschungsprojekt „Das Atriumhaus von Aguntum“ ergeben, bietet SPSS dennoch einige Vorteile gegenüber anderen Programmformaten, da sich Fundverwaltung und Auswertung hier gut kombinieren lassen. Das keramische Fundmaterial aus älteren und neueren Grabungen (1994-2006) am Atriumhaus von Aguntum liegt bislang in drei grundsätzlich unterschiedlichen Inventarformaten (handgeschriebenes Fundinventar 1994-1995, computergestütztes Inventar auf Textverarbeitungsbasis 1996-2002, Datenbank ArchaeoData (Firma ArcTron) ab 2003) vor. Da viele Grabungsbereiche über mehrere Jahre hinweg bearbeitet wurden, ist es zur Auswertung derselben notwendig, einen einheitlichen Standard in der Fundverwaltung zu schaffen. Mit dem Gedanken an eine statistische Auswertung der eingegebenen Daten schien hierfür die Eingabe in eine Datenbank mit entsprechenden Funktionen in der Auswertung und frei definierbaren Variablen von Vorteil. Die an der Universität Innsbruck kostenlos verfügbare Software SPSS kann diese Anforderungen zufriedenstellend erfüllen, vor allem da Open Source Software mit entsprechenden Funktionen eine wesentlich aufwendigere Einarbeitung erfordert hätte. Das Fundmaterial wird mit Scherbenbeschreibung, Fundlage, Schichtnummer, Bestimmung, Datierung etc. in eine gemeinsame tabellarische Datenbank aufgenommen. Erste Auswertungsversuche haben die leichte Handhabung des Programms bestätigt und streichen gegenüber reiner Fundverwaltungs-Software den Vorteil heraus, dass mit den verschiedensten Fragestellungen an das Material herangetreten werden kann. Entscheidend ist dabei die Definition der einzugebenden Variablen, wobei die Einheitlichkeit und Nutzbarkeit der Daten von Anfang an gewährleistet sein muss, um sich zeitintensives Umstrukturieren der Datenbank zu einem späteren Zeitpunkt zu ersparen. Zu den größten Nachteilen für die archäologische Nutzbarkeit des SPSS-Programmpakets zählt etwa die fehlende Möglichkeit Bildverknüpfungen zu erstellen. In einem kurzen Erfahrungsbericht zur Arbeit mit SPSS in der Auswertung von Siedlungskeramik sollen in diesem Beitrag Vor- und Nachteile des Programmpakets erläutert und mögliche Alternativen diskutiert werden.


Elisabeth Lindinger, Jenseits von Cluster & Co. Maschinelle Lernverfahren in der Archäologie
Typologie ist ein grundlegendes Konzept der Archäologie. Sie dient dazu, das Fundmaterial zu strukturieren und einzelne Objekte, aber auch ganze Fundinventare vergleichbar zu machen. Typologische Systeme als Ergebnisse von Klassifikationen stellen somit eine wichtige Grundlage für weiterführende Fragestellungen dar. Anhand eines konkreten Beispiels, der Gefäßkeramik aus dem bronzezeitlichen Gräberfeld von Kötitz, Lkr. Meißen, werden die Möglichkeiten und Grenzen maschineller Lernverfahren für die archäologische Klassifikation diskutiert.
Typologien lassen sich auf unterschiedliche Weise erzeugen. In der Archäologie besteht noch heute einer der gängigsten Ansätze darin, Funde entsprechend ihrer Ähnlichkeit zueinander von Hand zu ordnen und das Material so sukzessive in Untergruppen aufzuteilen. Da die Ähnlichkeit meist auf dem Gesamteindruck und nur selten auf einzelnen Merkmalen beruht, ist es außerdem schwer, die Konsistenz der Typologie zu überprüfen. Unabhängig von der Qualität des Ergebnisses sind die Merkmale, die einen Typ definieren, für den Außenstehenden oft nicht offensichtlich.
In den letzten Jahrzehnten wurde die Auswertung von Hand zunehmend durch statistische Methoden unterstützt, objektiviert und verfeinert. Verschiedene multivariate Analyseverfahren werden heute dazu verwendet, Strukturen in ausgewählten Merkmalen des Materials zu entdecken. Häufig auftretende Merkmalskombinationen können als Cluster visualisiert werden, die möglicherweise eine weitere Unterteilungsebene einer Typologie darstellen. Multivariate Analyseverfahren sind jedoch empfindlich hinsichtlich der Qualität der Daten, so dass die untersuchten Merkmale sich beispielsweise entweder auf numerische oder auf nominale Werte beschränken müssen. Scheinbar korrespondierende Merkmale wie absolute Maße und Indizes, denen in Wahrheit derselbe Wert zugrunde liegt, verfälschen das Bild der Auswertung.
Deshalb eignen sich die in der Archäologie gängigen statistischen Verfahren vor allem für bereits vorklassifiziertes Material, das sich nur in wenigen Merkmalen unterscheidet. Für die bronzezeitliche Lausitzer Kultur, der die Gefäßkeramik von Kötitz angehört, besteht jedoch keine akzeptierte Keramiktypologie, die zur Vorklassifizierung hätte dienen können. Bei der Auswertung der Gefäßdaten werden deshalb verschiedene maschinelle Lernverfahren getestet. Exemplarisch wird dies am C4.5-Algorithmus veranschaulicht.
Die ausgewählten Lernverfahren sind hinsichtlich der Qualität und Menge der Merkmale unempfindlich. Beim maschinellen Lernen leiten Algorithmen anhand von vorklassifizierten Datensätzen Typdefinitionen ab. Die erlernten Definitionen lassen sich theoretisch dazu nutzen, die Typzugehörigkeit von nicht vorklassifizierten Datensätzen vorherzusagen. Von größerer Bedeutung ist jedoch, dass sich auf diese Weise von Hand erstellte Klassifikationen auf ihre Stichhaltigkeit überprüfen lassen und so iterativ verändert und verbessert werden können. In Entscheidungsbäumen lassen sich die für die Klassierung relevanten Merkmale einfach ablesen, so dass die Typenbildung transparent und nachvollziehbar bleibt.
Der Einsatz von maschinellen Lernverfahren ermöglicht es, die bisher häufig intuitiv durchgeführte Klassifikation von Keramik objektiver zu gestalten und die Ergebnisse verständlicher darzulegen. Gleichzeitig wird eine solide Grundlage für weitere Auswertungsschritte geschaffen.


Tim Kerig / Jutta Lechterbeck, Ackerbauliche Betriebssysteme im Strukturgleichungsmodell: Erfahrungen mit einem konfirmatorischen Verfahren anhand von Beispielen aus Neolithikum und Eisenzeit
Archäologische Modellvorstellungen sind häufig historisch oder ethnographisch inspiriert, wobei nicht direkt beobachtbaren Parametern („latente Variablen“) eine große Bedeutung zukommt. Solche latenten Variablen können z. B. Angaben zur Bevölkerungsdichte, zur Intensität des Kultgeschehens oder zur Akzeptanz von Neuerungen sein; eine typische Aussage wäre etwa „auf den durch Bevölkerungsanstieg verursachten sozialen Stress wird mit vermehrtem Kult und einer Ablehnung des Fremden reagiert“.
Zur Überprüfung solcher Hypothesengebilde wurden insbesondere in den Kognitions-, Sozial- und Wirtschaftswissenschaften kausalanalytische Verfahren entwickelt. Wir berichten hier von Erfahrungen mit sog.  Kovarianzstrukturanalysen, wie sie zumeist unter dem Stichwort Strukturgleichungsmodell (SEM) firmieren: Es handelt sich um Mehrgleichungsmodelle, die dazu konzipiert sind, eine Theorie („Strukturmodell“) konfirmatorisch abzusichern. Testbare Hypothesen dienen zur Formulierung von quantitativ überprüfbaren Aussagen („Messmodelle“). Entscheidend ist dabei, dass das gesamte System der Hypothesen durch Gleichungen verbunden und daher auch in seiner Gesamtheit zugleich überprüfbar gemacht wird.
Das Verfahren kann in erster Näherung als Schätzverfahren für die Anpassungsgüte eines Modells an die empirischen Daten verstanden und als eine Kombination von Faktoren- und Regressionsanalysen beschrieben werden. Eine Reihe von Software steht hier für unterschiedliche Anwendungen zur Verfügung (PRELIS/LISREL, NEUSREL, AMOS für Windows, daneben OpenMx in R). Die Ansprüche an die empirischen Daten als Grundlage des Messmodells sind hinsichtlich Umfang und Spezifikation (klassischerweise unabhängig, multinormalverteilt, lineare Zusammenhänge u.a.) der Eigenschaften als hoch zu bezeichnen, so dass wir nicht von einer allgemeinen Anwendbarkeit in der Archäologie ausgehen; fruchtbar könnten die Methoden bei der Auswertung großer bestehender Datenmengen vor allem dann werden, wenn Sie zur Prüfung komplexer Theorien oder zukünftig als Teil explorativer Prozeduren genutzt werden.  
Unser Strukturmodell bezieht sich auf die mitteleuropäische Pflanzenproduktion vor Einführung des Pfluges sowie auf pflugbauliche Betriebssysteme, beziehungsweise auf deren jeweilige Nebeneffekte, für die Messmodelle erstellt werden können. Das Strukturmodell wurde anhand von historischen und ethnographischen Daten erstellt. Es wird zunehmend durch Schätzungen - u.a. lineares Programmieren - in seinen Restriktionen bestimmt (DFG Projekt „Ökonometrie des mitteleuropäischen Neolithikums“). Die Messmodelle nutzen archäobotanische, insbesondere palynologische Daten (DFG Projekt „Vegetationsgeschichtliche und archäobotanische Untersuchungen zur neolithischen und bronzezeitlichen Landnutzung am Bodensee“). Es werden besonders die Erfahrungen mit der Erstellung von Messmodellen referiert werden. Der Vortrag ist als Bericht zu work in progress zu verstehen.

Lit.:  K. G. Jöreskog / D. Sörbom, LISREL 7: A Guide to the Program and Applications (Chicago 1989). B. M. Byrne, Structural Equation Modeling with AMOS. Basic Concepts, Applications, and Programming. Multivariate Applications Series (Mahwah 2001). -- R. B. Kline, Principles and Practice of Structural Equation Modeling (New York 2005).



Harald Stäuble / Th. Preuss, Nicht nur zur Visualisierung: Bandkeramische Brunnen im 3D-Model
3D-Visualisierungen von komplexen Befund- und Fundsituationen sind nicht nur dafür geeignet, dem breiten Publikum ein lebendiges Bild eines Jahrtausende alten Fundes bzw. Befundes zu vermitteln - wenngleich das mitunter ein nützliches Nebenprodukt ist. Eine 3D-Aufnahme (in ACAD) und -Darstellung (auf ACAD Basis, dann in 3D-Max übertragen) der Konstruktionshölzer und der im Brunnen liegenden Funde dient zunächst vor allem dafür, eine Konstruktion sichtbar werden zu lassen, die man aufgrund der notwendigen detaillierten Grabungsmethoden in Schichten und dem stufenweise erfolgten Abtrag so vollständig nur bei der Erbauung hat sehen können. Zudem zeigt sich, dass eine 3D-Dokumentation der großen Vielfalt an Funden vor allem bei der Bearbeitung der verschiedenen Fundlagen an sich eine große Hilfe bei der Interpretation der Brunnensedimentation. Dabei spielt es keine große Rolle, ob man die Grabungsdokumentation nachträglich digitalisiert, oder ob die Objekte gleich vor Ort, bei der Grabung selbst 3D-gescant werden.
Zur Diskussion sollen die technischen Möglichkeiten und Alternativen gestellt werden, wobei wir uns auch weitere Anregungen für weitere, eventuell optimierte und weniger zeit- und rechenaufwändige Methoden erhoffen. Zudem suchen wir noch um einen geeigneten Weg, um diese Datengrundlage auch zusammen mit der Publikation sowohl für die Fachschaft als auch für das interessierte Publikum zugänglich machen können.



Silke Langenberg / Martin Sauerbier, Kombination von Tachymetrie und Nahbereichsphotogrammetrie zur Modellierung eines verstürzten Giebels in Kalapodi, Griechenland
Die Heiligtumsgrabung, höchstwahrscheinlich das Orakel von Abai in der antiken Landschaft Phokis, liegt bei Kalapodi in Mittelgriechenland. Die Grabungen wurden 1972-82 von Rainer C.S. Felsch begonnen und 2004 unter Leitung von Wolf-Dietrich Niemeier, Direktor der Athener Abteilung des DAI wieder aufgenommen. Der Ursprung des Kultes liegt in mykenischer Zeit (13 Jh. v. Chr.). Bis heute wurden acht Tempelbauten übereinander vom 8. Jh. vor bis zum 2. Jh. nach Chr. ausgegraben. 2007 kam der verstürzte Steingiebel des archaischen, hölzernen Südtempels zu Tage, welcher während der Brandzerstörung durch die Perser nach 480 v. Chr. vor den Tempel stürzte – in Folge ist der Kalkstein bis zur Kalzinierung verbrannt und zersprungen.
Ziel unserer Arbeiten im Herbst 2009 war die 3D-Dokumentation und -Modellierung dieses Giebels als Grundlage für Restaurierungsvorschläge, bevor er gehoben und damit unwiederbringlich aus seiner Versturzlage entfernt wird. Zu diesem Zweck entschieden wir uns für eine Aufnahme des Objektes mittels Tachymeter einerseits und Bildern andererseits: Während die Tachymetrie eine genaue und selektive Aufnahme von 3D-Punkten erlaubt, können aus den photogrammetrischen Bildern weitere geometrische Informationen (Kanten, dichte 3D-Punktwolken) sowie Texturinformationen extrahiert werden. Die eingesetzte Totalstation (Leica-Tachymeter TCR 1205+) ermöglichte in Kombination mit der Software TachyCAD (Kubit GmbH/ Applikation für das Zeichenprogramm AutoCAD® der Firma Autodesk®) die Erzeugung eines „Kantenmodells“ des verstürzten Giebels bereits im Feld: Jeder Stein des Giebels sowie einige darunter liegende oder anschliessende Bauteile wurden in ihrer Grundstruktur dreidimensional erfasst, d.h. zahlreiche (Eck-)Punkte mit Hilfe des Tachymeters gemessen, die Steinkanten am Rechner im Programm TachyCAD® direkt miteinander verbunden und in ihrer genauen räumlichen Lage dreidimensional dargestellt. Eine Kontrolle konnte unmittelbar erfolgen. Die auf diese Weise sehr zügig entstandene Topologie enthielt allerdings keinerlei Texturen und nur wenige Details – veranschaulichte die genaue räumliche Lage und Verschiebungen einzelner Bauteile jedoch sehr gut.
Die Bildaufnahme erfolgte mit einer digitalen Spiegelreflexkamera Nikon D2XS mit einem Bildformat von 12 Mpixeln. Um eine komplette stereoskopische Abdeckung des Objektes zu erhalten wurden Aufnahmen vom Boden sowie von einem erhöhten Standort (mittels Leiter) aufgenommen. Die Parameter der inneren Orientierung der Kamera (Kammerkonstante, Bildhauptpunkt, Verzeichnungsparameter) wurden mit Hilfe von codierten Zielmarken und der Software iWitness bereits im Feld mittels Bündelausgleichung bestimmt.
Im Rahmen der photogrammetrischen Auswertung wurden die aufgenommenen Bilder zunächst durch Messung von Verknüpfungspunkten relativ orientiert. Die Verknüpfungspunkte wurden grösstenteils automatisch in LPS (Leica) gemessen und editiert. Zur absoluten Orientierung konnten die tachymetrisch gemessenen Punkte als Passpunkte verwendet werden. Die Bündelausgleichung wurde aufgrund der konvergenten Aufnahmekonfiguration nach Import der Bild- und Objektkoordinaten der Passpunkte bzw. der Verknüpfungspunkte in Photomodeler 6 (EOS Inc.) durchgeführt. Somit liegen nach erfolgreicher Bündelausgleichung Tachymetermessungen und photogrammetrische Messungen im selben Koordinatensystem vor. Mittels der orientierten Bilder wurde unter Verwendung des in der Software SAT-PP (4DiXplorer AG) implementierten Matching-Algorithmus eine dichte 3D Punktwolke automatisch erzeugt, welche als Ergänzung zu den Tachymetermessungen verwendet werden kann. Die Fusion der beiden 3D-Modelle wurde mit dem in der Software Geomagic Studio (Raindrop Inc.) implementierten Iterative Closest Point (ICP) Algorithmus durchgeführt, mit dem die restlichen Datumsunterschiede beseitigt wurden.
Das Endresultat ist ein fusioniertes 3D Modell des Giebels mit photo-realistischer Textur. Es ist geplant dieses mit Hilfe computergesteuerter Geräte für eine museale Präsentation zu materialisieren.



Matylda Gierszewska, Topographiewandlung vom Mittelalter bis zur Gegenwart im Ingelheimer Saalgebiet. GIS-gestützte Rekonstruktion des Geländes
Die Kaiserpfalz Ingelheim liegt im östlichen Teil der gegenwärtigen Gemarkung dieser Stadt im so genannten Saalgebiet. Die ersten Grabungen in der Pfalzanlage datieren in den Anfang des 20. Jahrhunderts. Die archäologischen Untersuchungen wurden zweimal wieder aufgenommen, nämlich 1960 und 1993. Das Ende der von der Forschungsstelle Kaiserpfalz Ingelheim aktuell durchgeführten (Untersuchungen) Ausgrabungen ist für 2011 geplant.
Das Untersuchungsgebiet dieses Projektes umfasst außer der karolingischen Anlage auch die staufische Erweiterung und die nähere Umgebung mit Resten der Befestigung.
Das Hauptziel dieser Arbeit ist die Darstellung und Vergleichsanalyse der Geländeveränderungen dieses Gebietes zwischen dem 8. und 21. Jahrhundert. Dafür werden die Höhenwerten aus allen Grabungskampagnen von 1909 bis 2009 gesammelt und ausgewertet. Als weiteres Quellenmaterial werden die Geländeprofile in analoger Form benutzt. Anschließend wird das ganze Untersuchungsgebiet vermessen, um das aktuelle Geländemodell erstellen zu können.
Für die Abgrenzung der einzelnen Bereiche (engl. barriers) werden die Umrisse der Gebäude, der Plätze oder anderer anthropologischer Strukturen benutzt. Die dafür notwendigen Daten werden aus Grabungszeichnungen, bauhistorischen Bearbeitungen und historischem Kartenmaterial abgelesen.
Die Erarbeitung der Methode, mit der man die Veränderung des Geländes nachvollziehen kann, ist lediglich ein Nebenziel dieses Projektes. Die wichtige und zentrale Rolle hat auch die Anwendung der Geographischen Informationssysteme in den archäologischen Untersuchungen.
Es werden für fünf Zeitabschnitte digitale Geländemodelle (kurz DGM) angefertigt. Das erste erfasst die Vorbereitungen des Geländes für den Bau der Kaiserpfalz im 8. Jahrhundert. Zwei weitere Modelle bilden die erste karolingische Phase der Bebauung und die staufische Erweiterung ab. Abschließend werden die Veränderung des 17./18. Jahrhunderts und die aktuelle Form des Terrains dargestellt.
Für das Generieren der 2,5-dimensionalen Geländemodelle werden unterschiedliche statistische und nicht statistische Interpolationsverfahren benutzt, unter Anderem Kriging, die Inverse Distanzwichtung und Spline.
Da Höhenwerte nur aus den unregelmäßig über das Gelände verteilten Grabungsflächen gewonnen werden können, ist das Höhenpunktenetz ebenfalls unregelmäßig. Dementsprechend wird die Darstellung des aktuellen Geländes auf der Basis von einem unregelmäßigen und regelmäßigen Netz interpoliert. Von diesen Modellen wird auch der Effektivwert-Fehler (engl. RMSE – Root Mean Square Error) berechnet. Von allen Modellen werden die Geländeprofile sowohl parallel zur Neigung des Terrains als auch senkrecht erstellt und verglichen. So soll ein Bild der Geländeveränderung entstehen.
Der ganze Prozess wird mit dem Programm ArcGIS 9.2 durchgeführt. Dadurch, dass der größte Teil der Quellen - wie die Grabungszeichnungen - digital im .dwg-format vorliegen, werden die vorbereitenden Arbeiten im AutoCAD 2008 gemacht.
Resultate dieser Arbeit sind sowohl die einzelnen Geländemodelle als auch die Vergleichsanalyse der Topographiewandlung. Diskutiert werden außerdem die Genauigkeit dieser Modelle und die Nutzbarkeit der archäologischen Daten. Zudem wird eine neue Technologie, nämlich die Geographischen Informationssysteme und ihre Anwendung in der Archäologie präsentiert.



Volker Soßna, Computeranwendung und archäologische Feldarbeit in der Praxis. GIS und Datenbank im Projekt "Anden-Transekt" in Süd-Peru
In der Gegend um die Kleinstadt Palpa im Süden Perus liegen so verschiedene Naturräume wie die Küstenwüste und das andine Hochgebirge eng bei einander. Dieses Wüstenrandgebiet reagiert besonders sensibel auf klimatische Veränderungen mit weit reichenden Konsequenzen für die ansässige Bevölkerung. Im Projekt Anden-Transekt arbeiten Archäologen des DAI mit Forschergruppen aus verschiedenen Disziplinen wie der Geographie, Archäometrie und Anthropologie zusammen, um die Wechselwirkungen zwischen Umwelt- und Kulturentwicklung in vorspanischer Zeit zu untersuchen. Die Vielfalt der gewonnenen Daten ermöglicht detaillierte Analysen zu zahlreichen Fragestellungen, stellt aber auch die praktische Speicherung und Verknüpfung der gesammelten Informationen vor große Herausforderungen.
Im Rahmen eines archäologischen Dissertationsvorhabens sollen Änderungen in den Siedlungsmustern und der Landnutzung vorspanischer Kulturen im Zusammenhang mit Klimaschwankungen untersucht werden. Dazu sollen Daten aus geographischen Arbeiten sowie Pollen-,Isotopen- und Gen-Analysen mit archäologischen Funden und Befunden verglichen und in eine gemeinsame Datenbank und ein GIS integriert werden. In bisherigen Arbeit konnten so bereits auffällige Kongruenzen zwischen Schwankungen der Niederschlagsmenge und -verteilung und dem Auflassen bzw. Anlegen von Siedlungen in bestimmten Zonen gezeigt werden. Nun sollen feinere Analysen unter Einbeziehung weiterer Kriterien, z.B. der Verteilung bestimmter Fundtypen und Bauweisen einbezogen werden.
Umgekehrt möchten Kollegen aus anderen Fachbereichen archäologische Daten in ihre Arbeiten einbeziehen. Die Datenbank soll daher von allen Projektpartnern auch ohne große Vorkenntnisse über Datenbank-Strukturen genutzt werden können, um schnell eine Übersicht über die für eine ganz spezielle Fragestellung relevanten Daten zu bekommen.
Der Bestand an Daten stammt zum großen Teil aus deutlich kleiner angelegten, rein archäologischen Vorgängerprojekten und wurde ursprünglich in einer nicht normalisierten Access-Datenbank in Text- und Memofeldern gespeichert. Die nachträgliche Normalisierung und vor allem die Übertragung der Information in die neue Struktur ist Voraussetzung für die Einbindung in ein GIS und weiter gehende Analysen. Parallel dazu kommen laufend neue Daten aus den aktuellen Feldarbeiten hinzu.
Um die Datenaufnahme, -synchronisation, -pflege, –analyse und -visualisierung zu bewältigen sind umfangreiche Programmierungen in VBA notwendig, um möglichst viele Prozesse automatisiert ablaufen zu lassen. VBA ermöglicht auch die Nutzung von Features, für die Access von Haus aus nicht ausgelegt ist. Dazu gehört die Darstellung von Zeitstellung und Klasse eines Fundortes in einer Tabellenmatrix statt in einem Endlosformular, die synchrone Anzeige von Bild- und Kartenmaterial beim Scrollen durch Datensätze in einem Formular sowie die Einbindung einer Übersichtskarte, auf der beispielsweise die Position eines Fundortes in Abhängigkeit von seinen Koordinaten angezeigt wird, ohne dafür erst das GIS laden zu müssen.
Da vermutlich auch andere Projekte vor ähnlichen Fragen stehen, sollen mögliche Antworten beispielhaft vorgestellt werden.


Jörg Nowotny, Alte Daten in neuem Gewand - GIS-gestützte Aufarbeitung des kaiserzeitlichen Waffenopferplatzes von Ejsbøl, Haderslev Kommune
Die Forschungen in Ejsbøl begannen 1955, als bei der Anlage von Drainagen im gleichnamigen Moor Waffen aus dem 4. und 5. Jh. n. Chr. zutage kamen. Zeitnah erfolgten ab 1956 umfassende Ausgrabungsarbeiten durch das dänische Nationalmuseum (Mogens Ørsnes) in Zusammenarbeit mit dem Haderslev Museum (Hans Neumann) (heute Museum Sønderjylland), die ihren vorläufigen Abschluß 1964 fanden. Bei diesen Grabungsarbeiten wurde eine Fläche von 1700m2 erfasst und insgesamt rund 16000 Objekte geborgen.
In der Publikation „Ejsbøl I. Waffenopferfunde des 4. – 5. Jh. n. Chr.“ publizierte Mogens Ørsnes 1988 die Ergebnisse der Grabungen als ein Großopfer der römischen Kaiserzeit. Ørsnes ursprüngliche Annahme, die mit den Grabungen die Opferungen in ihrer Gesamtheit erfasst zu haben, wurde von ihm selbst im Zuge der 1950 bis 1956 durchgeführten und ab 1975 bis 1985 weitergeführten Ausgrabungen in Illerup Ådal revidiert.
Bei Arbeiten zur Anlage eines Sees 1992 wurde im westlichen Bereich des Ejsbøl- Moores eine weitere Opferung zerstört. Daraufhin erfolgten gezielte Nachgrabungen und Detektorbegehungen in diesem Bereich sowie von 1997 bis 1999 planmäßige Ausgrabungen im Südbereich des Moores. Bei diesen neuen Grabungen wurden rund 5300 m2 archäologisch untersucht, und es konnten insgesamt rund 1450 Funde geborgen werden.
Dabei konnten aufgrund des Fundmaterials mehrere Opferungen vom 1. Jh. v. Chr. bis zum 5. Jh. n. Chr. herausgearbeitet werden. Im Kontext mit den 1955 – 1964 untersuchten Flächen ergibt sich nunmehr ein sehr komplexes Bild. Insgesamt wurden zwei Projekte ins GIS umgesetzt. Zunächst wurden in Kooperation mit den dänischen Kollegen A. N. Jørgensen, Moesgård und H. Chr. Andersen, Haderslev, Verbeitungskarten für die Publikation „Krigsbytteoffre i Ejsbøl Mose. Sen 1. årh. f. Kr. Til tidligt 5. årh. e. Kr.“ erstellt.
Als weiteres wurden die Grabungspläne der Jahre 1955 bis 1964 eingescannt und die Funde lagerichtig digitalisiert. Dadurch war es erstmalig möglich, einen Gesamteindruck der Grabungen und des Fundmaterials zu erlangen. In der parallel dazu geführten Datenbank wurden die bislang nur im Buch vorhandenen Fundtabellen eingepflegt. Die Verbindung des GIS mit dieser Datenbank ermöglicht eine Fülle von gezielten Informationsabfragen, die es ermöglichen, dynamisch mit den Altfunden arbeiten zu können.
So sind im GIS Abfragen des Materials nach Fundart, Fundkategorie u.v.m möglich. Auch gezielte Abfragen nach bestimmten Funden sind über die integrierte Suchfunktion schnell abzuarbeiten. Ein weiterer Arbeitsschritt ist die Transformation der Geodaten von dem bei der Grabung verwendeten lokalen Koordinatensystem in das UTM – System. Dies erlaubt erstmalig eine gemeinsame Projektion des Fundmaterials aus den Grabungen 1955 - 1964 zusammen mit dem in den Jahren 1997 – 1999 geborgenen, wodurch eine vergleichende Gesamtbetrachtung möglich wird.
Neben der rein zweidimensionalen Arbeit sind auch im dreidimensionalen Bereich Möglichkeiten vorhanden. Mangels geeigneter Daten konnten keine dreidimensionale Modelle der Grabungen 1955 bis 1964 herausgearbeitet werden. Es gelang jedoch, ein dreidimensionales Geländemodell als TIN sowie als Oberflächenmodell zu erarbeiten, auf dessen Grundlage eine Vielzahl von Analysen wie etwa Hangneigungen, Orientierung einzelner Geländeabschnitte und andere möglich sind.
In Verbindung mit anderen Mooropferplätzen sind somit in zwei- und dreidimenionaler Form vergleichende Studien möglich, die sukzessive ein klareres Bild zeichnen. Die Einbeziehung weiterer archäologischer und naturwissenschaftlicher Daten eröffnen in der Perspektive völlig neue und komplexe Möglichkeiten und Forschungsansätze.


Georg Roth, Die Zukunft von Punktkartierungen. Bandbreitenoptimierte 2D/3D-KDE als neue Analysemethode für Einzelfundeinmessungen
Die Kartierung und rein visuelle Interpretation von Punktverbreitungen, ob nun auf Karten oder Grabungsplänen, gehört zu den wichtigsten Auswertungsschritten bei archäologischen Raumdaten. Grundlegende Fragen sind etwa: Wo liegen die Schwerpunkte und zentralen Bereiche einer Verteilung? Oder, welche Verteilungsstruktur liegt vor und wie ist die Beziehung zu anderen (Punkt-)Verteilungen?
Diese Fragen lassen sich durch die Verwandlung der Vektorinformation 'Punktkoordinate' in eine Rasterkarte mittels Kerndichteschätzung lösen (engl. kernel density estimation, kurz KDE). KDE schätzt auf der Basis der Punktkoordinaten die Dichte der Verteilung und erzeugt als Ergebnis eine Rasterkarte, deren Z-Wert eine Dichteangabe beinhaltet, also Punkt/-e pro Flächeneinheit. Auf diese Weise lassen sich Punktkartierungen bzw. -koordinaten in Rasterkarten der Dichte und schließlich in Dichte-Isolinienkarten verwandeln.
Der bisherige Einsatz von Kerndichteschätzungen ist jedoch (noch) von der Problematik der sog. Bandbreitenwahl beeinträchtigt (Conolly 2006; vgl. z. B. Nigst 2004), so das bisherigen Resultaten stets noch eine gewisse Willkürlichkeit anhaftete. Als Bandbreite wird der Parameter bezeichnet, der die Verteilung des Dichtebeitrages eines Punktes im Raum steuert. Für die Wahl dieses zentralen Parameters existieren zwar (noch) keine methodisch verbindlichen Regeln, allerdings bieten KDE-packages der freien Statistikoberfläche R Funktionen zur Bandbreitenoptimierung und ihrer Umsetzung an (z. B. package ks).
Der Vortrag beschreibt das Verfahren für 2D genauer, die 3D-Anwendung ist eine bloße Erweiterung. Das Vorgehen wird an drei Fallstudien exemplifiziert, einem zwei- und zwei dreidimensionalen Beispielen. Als Fallbeispiel für eine KDE in zwei Dimensionen dient eine Kartierung von Surveyfunden von einem eisenzeitlichen Fundplatz (Daten: Dr. N. Rupp/Uni Ff. a. M.). Die Anwendung in drei Dimensionen wird anhand von zwei Verteilungen einzeln eingemessener Funde aus Grabungsschnitten demonstriert, einmal Keramikfragmenten vom gleichen Fundplatz und einmal Silexartefakten von einem Ertebölle-Freilandfundplatz (Daten: vgl. Bradtmöller 2008). Die 3D-KDE stellt eine Premiere in der mitteleuropäischen Archäologie dar.

Lit.: M. Bradtmöller, Fedderingen Wurth, an Ertebølle site at the North Sea coast Fedderingen  Wurth. Quartär 55, 2008, 127 ? 134. -- Ph. Nigst, Eine Behausung aus dem Gravettien? Vorläufige Ergebnisse der GIS-basierten Analyse der räumlichen Verteilung der Fundobjekte in Grub/Kranawetberg (Niederösterreich). Arch. Austr. 88, 2004, 29-66. -- J. Connolly und M. Lake, Geographical Information Systems in Archaeology. Manuals in Archaeology (Cambridge 2006).


Alden Yépez / Irmela Herzog, Vergleich verschiedener Methoden zur Analyse von Siedlungsmustern im Flusstal La Plata, Kolumbien
Im Jahr 1983 fanden systematische Feldbegehungen am Oberlauf des Flusstales La Plata, im südlichen Hochland Kolumbiens, unter der Leitung des nordamerikanischen Archäologen Robert D. Drennan statt. Für das 2200 km² große Untersuchungsgebiet wurden drei Schwerpunktareale festgelegt. Von besonderem Interesse ist hier das westliche Areal mit einer Fläche von knapp 319 km². In diesem Areal wurden auf 4601 kleineren Untersuchungsflächen mit einer mittleren Größe von 0,75 Hektar entweder Oberflächenfunde oder Funde aus Schaufelproben geborgen. Ziel der Analyse dieser Daten von Drennan und seinen Kollegen war die Rekonstruktion der Siedlungsmuster anhand der Verteilung der Keramikscherben im Gelände. Dabei können drei Hauptperioden unterschieden werden: Formativo (1. Jt. v.Chr.), Clasico Regional (bis ca. 900 n.Chr.) und Reciente (bis 1530 n.Chr.), wobei für Formativo drei Unterperioden im Keramikspektrum erkennbar sind. Die Verteilung der Funde aus der Periode Clasico Regional sieht Drennan als ein klares Indiz für die Entstehung größerer Organisationseinheiten (Häuptlingstümer) am Oberlauf des Flusstales La Plata.
Um Grenzen zwischen Siedlungsarealen auf verschiedenen Skalenniveaus zu rekonstruieren, entwickelte Drennan eine Methode zur Dichteberechnung. Dabei wird zunächst mit Hilfe der Scherbendichten in den kleinen unregelmäßigen Untersuchungsflächen die Funddichte für Gitterpunkte im 100m-Abstand errechnet. Auf der Grundlage dieses Gitters werden die Fund¬dichten mit der „inverse-distance“-Methode (IDW) interpoliert. Für die IDW-Interpolation  wird der Suchradius so gewählt, dass das gesamte Gebiet eingeschlossen ist; der Exponent steuert die Glättung der Dichtedarstellung. Die territorialen Grenzen werden dort gezogen, wo die Punkthäufigkeiten ausdünnen. Diese Methode zur Dichteberechnung benötigt eine große Anzahl Rechenschritte, denn das Ergebnis berücksichtigt alle Gitterzellen, auch die sehr weit entfernten. Die Steuerung der Glättung durch den Exponenten ist wenig intuitiv, und viele Programme, die die IDW-Methode anbieten, unterstützen nur Exponenten größer oder gleich 1, nicht aber 0,001, wie von Drennan vorgeschlagen.
Die Kerndichteschätzung ist eine andere, statistisch fundierte Methode zur Berechnung der Funddichte. Die Glättung kann in intuitiverer Weise durch die so genannte Bandbreite gesteuert werden. Zusätzlich ist es einfach möglich, verschiedene Varianten zu rechnen, bei denen u.a. die topographischen Gegebenheiten berücksichtigt werden.
Drennan stellt die Daten aus dem Prospektionsprojekt und die Ergebnisse seiner Dichteberechnung im Internet zur Verfügung, so dass es möglich war, diese einer neuen Analyse mit der Kerndichteschätzung zu unterziehen. Im Vortrag werden die beiden genannten Methoden zur Dichteschätzung anhand der Beispieldaten aus La Plata verglichen.