Philippe
Della Casa / Steffen Knöpke / Philipp Wiemann, IT-gestützte
Verfahren in der Archäologie: Erfahrungen mit e-learning-Kursen an
der Universität Zürich
An der Abteilung Ur- und Frühgeschichte der Universität
Zürich werden seit 2007 e-learning-Module zu IT-gestützten
Verfahren in der Archäologie mit Fokus auf den Bachelorlehrgang
entwickelt. Zwei solche Module sind bereits realisiert und in der Lehre
erprobt worden, ein weiteres ist in Entwicklung.
Bei den bereits laufenden Modulen handelt es sich einerseits um den
e-learning-Kurs „Methodische Grundlagen der Archäologie:
EDV-gestützte Verfahren“ (Harrismatrix, Seriation,
Clusteranalyse, 14C-Daten, Sterbetafeln – mit Übungen unter
Verwendung von Stratify, PAST, OxCal, Excel) und andererseits um den
Kurs „GIS in der Archäologie“ (Systeme, Datenbanken,
Geodaten, räumliche Analyseverfahren – mit Übungen
unter Verwendung von ArcGIS); in Vorbereitung ist ein interaktives
Lehrmodul mit Theorie, Übungen und Podcasts zum Thema
„Archäologie der Alpen“.
Die Kurse werden auf dem CMS „OLAT“ der Universität
Zürich erstellt, und dort auch durchgeführt und betreut, d.h.
die Studierenden beziehen alle relevanten Informationen wie Kursinfos,
Einschreibung, Theorieteile, Aufgabenstellungen und Begleitliteratur
über die OLAT-Seiten, sie lösen dort Aufgaben bzw. reichen
ihre separat erarbeiteten Übungsresultate ein, und sind über
ein Forum miteinander und mit der Kursleitung vernetzt. Lediglich zu
Beginn und am Ende des Semesters finden physische Treffen statt:
für die Konstituierung der Lerngruppe, und für den Resultate-
und Erfahrungsaustausch.
Im Rahmen des Beitrages sollen die Planungs-, Entwicklungs- und
Umsetzungsschritte dieser Lehrmodule vorgestellt und ihr Einsatz in der
universitären Lehre diskutiert werden.
Axel Posluschny, Über alle Grenzen –
Datenaustausch zu archäologischen Fundstellen in Deutschland
Archäologische Forschung basiert seit jeher auf Daten mit einem
geographischen Bezug. Insbesondere Fundstellendaten mit ihren
Koordinaten bilden dabei die Grundlage zahlreicher Analysen, vor allem
auch nachdem Geographische Informationssysteme (GIS) auch in der
Archäologie eine weite Verbreitung gefunden haben.
Seit Einführung der Landesdenkmalämter in der Bundesrepublik
werden Fundstellen mit Koordinaten und weiteren ergänzenden
Informationen (Datierung, Funde, Ausgrabungen, ...) in Ortakten
archiviert; im Rahmen der zunehmenden Digitalisierung findet diese
Archivierung mittlerweile überwiegend in Form von Datenbanken
statt. Bedingt durch die Kulturhoheit der Länder hat sich dabei
eine Vielzahl an unterschiedlichen Systemen in den einzelnen
Bundesländern entwickelt und etabliert, die sich sowohl in der
verwendeten Software wie auch in der Datenstruktur zuweilen deutlich
unterscheiden. Dennoch sind diese Datenbanken über die Zwecke der
archäologischen Denkmalpflege hinaus gerade auch für die
Forschung, insbesondere auch für Magister- und Promotionsarbeiten
eine wichtige Arbeitsgrundlage. Wegen ihrer Verschiedenartigkeit war es
aber bislang nur eingeschränkt möglich, auch über die
Grenzen der Bundesländer hinweg auf Daten zugreifen und diese
nutzen zu können.
Um einen bundeslandübergreifenden Datenaustausch sowohl für
Belange der Denkmalpflege als auch für die archäologische
Forschung zu ermöglichen, hat der Verband der
Landesarchäologen im März 2005 die Kommission
„Archäologie und Informationssysteme“ (http://www.landesarchaeologen.de/kommissionen/komm_informationssysteme/ag_informationssysteme.html)
gegründet. Vier Arbeitsgruppen beschäftigen sich mit Aspekten
der Archivierung (http://www.landesarchaeologen.de/kommissionen/komm_informationssysteme/ag_is_archivierung.html),
mit Rechtsfragen, mit der Harmonisierung bestehender Thesauri sowie mit
der Entwicklung eines Austauschsystems, mit dessen Hilfe Daten zwischen
den Denkmalfachbehörden verschiedener Bundesländer aber auch
mit interessierten Anwendern aus der archäologischen Forschung
ausgetauscht werden können.
Der Vortrag wird den ADeX genannten Standard (Archäologischer
Datenexport; derzeit Version 1.2, http://www.landesarchaeologen.de/kommissionen/komm_informationssysteme/ag_is_adex_00.html)
vorstellen und die Möglichkeiten insbesondere für die
archäologische Forschung beleuchten. Ziel ist es, durch eine
verstärkte Nachfrage aus Reihen von Absolventen die Entwicklung
des Austauschformats weiter voran zu treiben und auch in
Bundesländern zu etablieren, die aus organisatorischen und
finanziellen Gründen das Format noch nicht vollständig als
Exportformat in ihren Datenbanksystemen implementiert haben.
Matthias
Lang, ArcheoInf – Bereitstellung von Primärdaten
archäologischer Projekte
Das interdisziplinäre Projekt ArcheoInf schafft eine Umgebung, in
der Primärdaten archäologischer Forschung, die bisher in
heterogenen Datenstrukturen vorgehalten wurden, unter Wahrung ihrer
Autonomie in einer gemeinsamen Umgebung web-basiert verfügbar
macht. Mit diesen archäologischen Primärdaten können
nun bibliographische Informationen über ein
Dokumentenrepositorium sowie Geo-Informationen über einen
Geo-Server verbunden und in einem gemeinsamen Web-Interface dargestellt
werden. Mit einem Archivserver sorgt ArcheoInf für die
langfristige Haltung der eingespielten Daten.
Herzstück von ArcheoInf ist der sog. Mediator, ein Werkzeug,
welches in der Lage ist die heterogenen Daten zu verbinden und bis zu
einem gewissen Grad zu verstehen und zu interpretieren. Um dieses
Verständnis des archäologischen Fachwissens zu
ermöglichen, liegt dem Mediator eine komplexe Ontologie zu Grunde,
welche das Fachwissen in Klassen und Instanzen beschreibt. Diese
Ontologie basiert auf einer für den archäologischen Bereich
erstellten Umformung und Erweiterung des CIDOC CRM-Modells durch die
englische Denkmalbehörde English Heritage. Diese Erweiterungen
betreffen hauptsächlich die Verbindung bibliographischer sowie
geographischer Informationen mit den archäologischen Fachdaten.
Die einzelnen Klassen des Modells werden durch möglichst
umfassende Thesauri mit archäologischem Fachwissen gefüllt,
diese ermöglichen erst eine sinnvolle und differenzierte Suche in
den Primärdaten. Zur Erstellung der Thesauri wurde sich für
SKOS-Core entschieden. Diese Sprache ermöglicht die Generierung
mehrsprachiger, polyhierarchischer sowie web-fähiger Vokabulare.
Aufgrund der Semantic-Web-fähigkeit des Mediators können die
eingespielten Dantenbanken in ihrer Struktur unverändert bleiben,
wenn diese den formalen Mindestanforderungen entsprechen. Sie werden
von den beteiligten Projekten weitergepflegt; bereits abgeschlossene
Sammlungen können auf dem von ArcheoInf zur Verfügung
gestellten Archivserver langfristig abgelegt werden. Die Daten werden
dort in ein standarisiertes XML-Format konvertiert und gespeichert, was
sie von der zur Erstellung verwendeten Software unabhängig macht.
Auf diese Weise ist eine langfristige Nutzung der Daten möglich
und bisher nicht netzwerkfähige Datenbanken können über
das Internet anderen Forschern zugänglich gemacht werden.
ArcheoInf füllt sich dem Open Access-Gedanken verpflichtet,
verfügt jedoch über eine komplexe Rechteverwaltung, welche
das Datenmaterial laufender Projekte schützt und nur befugten
Nutzern zugänglich macht.
In den vergangenen Wochen konnte ein Prototyp von ArcheoInf seinen
Betrieb aufnehmen, der erste Funktionalitäten des Mediators, des
Geo-Servers sowie des Dokumentenrepositoriums enthällt.
Betrieben wird ArchoInf vom Archäologischen Institut der
Universität Göttingen, dem Lehrstuhl für
Softwaretechnologie in der Fakultät für Informatik an der
Technischen Universität Dortmund, dem Fachbereich für
Vermessung und Geoinformatik der Hochschule Bochum sowie den
Universitätsbibliotheken in Bochum und Dortmund. Finanziert wird
das Projekt durch die Deutsche Forschungsgemeinschaft.
Günther
Schörner, Von Scherben zu Clustern: Der Vergleich von
Fundkomplexen aus Oberflächenbegehung und Ausgrabung sowie die
Interpretation von Formierungsprozessen mit Hilfe statistischer Methoden
Anhand des Beispiels der Grabung ‚Il Monte’, die einem
römischen Siedlungsplatz in der Nähe von San Gimignano gilt,
wird der Nutzen statistischer Methoden bei der Interpretation einer
Einzelgrabung exemplarisch vorgeführt.
In einem kürzeren ersten Teil soll der Vergleich von
Keramikassemblagen, die an der Oberfläche, im Pflughorizont und in
tiefer liegenden antiken Depositen gefunden wurden, mit Hilfe von
Korrespondenz- und Clusteranalyse im Mittelpunkt stehen. Die erzielten
Resultate können dabei zur Überprüfung und
‚Kalibrierung’ von Surveyda-ten herangezogen werden, da die
Relation von durch Begehung und Grabung ge-wonnener Funde kritisch
betrachtet werden kann.
In einem zweiten Teil soll am konkreten Beispiel ‚Il Monte’
das Problem der archäo-logischen Befundbildung untersucht werden.
Neben Korrespondenz- und Clusterana-lyse soll vor allem auch die in der
Historischen Archäologie entwickelte Methode zur Bestimmung des
Durchschnittsalters einzelner Fundkomplexe (South-Formel) heran-gezogen
werden. Dadurch kann gezeigt werden, wie wiederum statistische Analysen
bei adäquater ‚Versuchsanordnung’, d.h. passender
Vorgehensweise bei der prakti-schen Grabungstätigkeit, helfen
können, Formierungsprozesse zu klären und somit
grundsätzlich zu einem besseren Verständnis der
Grabungssituation zu gelangen.
Martin
Auer, SPSS in der Auswertung von Siedlungskeramik
Die statistische Auswertung von archäologischem Fundmaterial ist
bei größeren Fundmengen nur mehr computergestützt
möglich. Es werden in der Archäologie verschiedene
Programmformate angewandt und oftmals auf individuelle Anforderungen
angepasst. Das Statistikprogramm SPSS, ursprünglich entwickelt
für das Feld der „Sozialwissenschaften“, ist ein
kommerzielles Programmpaket, das nicht individuell umgestaltet werden
kann. Für die Problemstellungen, die sich im Forschungsprojekt
„Das Atriumhaus von Aguntum“ ergeben, bietet SPSS dennoch
einige Vorteile gegenüber anderen Programmformaten, da sich
Fundverwaltung und Auswertung hier gut kombinieren lassen. Das
keramische Fundmaterial aus älteren und neueren Grabungen
(1994-2006) am Atriumhaus von Aguntum liegt bislang in drei
grundsätzlich unterschiedlichen Inventarformaten
(handgeschriebenes Fundinventar 1994-1995, computergestütztes
Inventar auf Textverarbeitungsbasis 1996-2002, Datenbank ArchaeoData
(Firma ArcTron) ab 2003) vor. Da viele Grabungsbereiche über
mehrere Jahre hinweg bearbeitet wurden, ist es zur Auswertung derselben
notwendig, einen einheitlichen Standard in der Fundverwaltung zu
schaffen. Mit dem Gedanken an eine statistische Auswertung der
eingegebenen Daten schien hierfür die Eingabe in eine Datenbank
mit entsprechenden Funktionen in der Auswertung und frei definierbaren
Variablen von Vorteil. Die an der Universität Innsbruck kostenlos
verfügbare Software SPSS kann diese Anforderungen
zufriedenstellend erfüllen, vor allem da Open Source Software mit
entsprechenden Funktionen eine wesentlich aufwendigere Einarbeitung
erfordert hätte. Das Fundmaterial wird mit Scherbenbeschreibung,
Fundlage, Schichtnummer, Bestimmung, Datierung etc. in eine gemeinsame
tabellarische Datenbank aufgenommen. Erste Auswertungsversuche haben
die leichte Handhabung des Programms bestätigt und streichen
gegenüber reiner Fundverwaltungs-Software den Vorteil heraus, dass
mit den verschiedensten Fragestellungen an das Material herangetreten
werden kann. Entscheidend ist dabei die Definition der einzugebenden
Variablen, wobei die Einheitlichkeit und Nutzbarkeit der Daten von
Anfang an gewährleistet sein muss, um sich zeitintensives
Umstrukturieren der Datenbank zu einem späteren Zeitpunkt zu
ersparen. Zu den größten Nachteilen für die
archäologische Nutzbarkeit des SPSS-Programmpakets zählt etwa
die fehlende Möglichkeit Bildverknüpfungen zu erstellen. In
einem kurzen Erfahrungsbericht zur Arbeit mit SPSS in der Auswertung
von Siedlungskeramik sollen in diesem Beitrag Vor- und Nachteile des
Programmpakets erläutert und mögliche Alternativen diskutiert
werden.
Elisabeth
Lindinger, Jenseits von Cluster & Co. Maschinelle Lernverfahren in
der Archäologie
Typologie ist ein grundlegendes Konzept der Archäologie. Sie dient
dazu, das Fundmaterial zu strukturieren und einzelne Objekte, aber auch
ganze Fundinventare vergleichbar zu machen. Typologische Systeme als
Ergebnisse von Klassifikationen stellen somit eine wichtige Grundlage
für weiterführende Fragestellungen dar. Anhand eines
konkreten Beispiels, der Gefäßkeramik aus dem
bronzezeitlichen Gräberfeld von Kötitz, Lkr. Meißen,
werden die Möglichkeiten und Grenzen maschineller Lernverfahren
für die archäologische Klassifikation diskutiert.
Typologien lassen sich auf unterschiedliche Weise erzeugen. In der
Archäologie besteht noch heute einer der gängigsten
Ansätze darin, Funde entsprechend ihrer Ähnlichkeit
zueinander von Hand zu ordnen und das Material so sukzessive in
Untergruppen aufzuteilen. Da die Ähnlichkeit meist auf dem
Gesamteindruck und nur selten auf einzelnen Merkmalen beruht, ist es
außerdem schwer, die Konsistenz der Typologie zu
überprüfen. Unabhängig von der Qualität des
Ergebnisses sind die Merkmale, die einen Typ definieren, für den
Außenstehenden oft nicht offensichtlich.
In den letzten Jahrzehnten wurde die Auswertung von Hand zunehmend
durch statistische Methoden unterstützt, objektiviert und
verfeinert. Verschiedene multivariate Analyseverfahren werden heute
dazu verwendet, Strukturen in ausgewählten Merkmalen des Materials
zu entdecken. Häufig auftretende Merkmalskombinationen können
als Cluster visualisiert werden, die möglicherweise eine weitere
Unterteilungsebene einer Typologie darstellen. Multivariate
Analyseverfahren sind jedoch empfindlich hinsichtlich der Qualität
der Daten, so dass die untersuchten Merkmale sich beispielsweise
entweder auf numerische oder auf nominale Werte beschränken
müssen. Scheinbar korrespondierende Merkmale wie absolute
Maße und Indizes, denen in Wahrheit derselbe Wert zugrunde liegt,
verfälschen das Bild der Auswertung.
Deshalb eignen sich die in der Archäologie gängigen
statistischen Verfahren vor allem für bereits vorklassifiziertes
Material, das sich nur in wenigen Merkmalen unterscheidet. Für die
bronzezeitliche Lausitzer Kultur, der die Gefäßkeramik von
Kötitz angehört, besteht jedoch keine akzeptierte
Keramiktypologie, die zur Vorklassifizierung hätte dienen
können. Bei der Auswertung der Gefäßdaten werden
deshalb verschiedene maschinelle Lernverfahren getestet. Exemplarisch
wird dies am C4.5-Algorithmus veranschaulicht.
Die ausgewählten Lernverfahren sind hinsichtlich der Qualität
und Menge der Merkmale unempfindlich. Beim maschinellen Lernen leiten
Algorithmen anhand von vorklassifizierten Datensätzen
Typdefinitionen ab. Die erlernten Definitionen lassen sich theoretisch
dazu nutzen, die Typzugehörigkeit von nicht vorklassifizierten
Datensätzen vorherzusagen. Von größerer Bedeutung ist
jedoch, dass sich auf diese Weise von Hand erstellte Klassifikationen
auf ihre Stichhaltigkeit überprüfen lassen und so iterativ
verändert und verbessert werden können. In
Entscheidungsbäumen lassen sich die für die Klassierung
relevanten Merkmale einfach ablesen, so dass die Typenbildung
transparent und nachvollziehbar bleibt.
Der Einsatz von maschinellen Lernverfahren ermöglicht es, die
bisher häufig intuitiv durchgeführte Klassifikation von
Keramik objektiver zu gestalten und die Ergebnisse verständlicher
darzulegen. Gleichzeitig wird eine solide Grundlage für weitere
Auswertungsschritte geschaffen.
Tim
Kerig / Jutta Lechterbeck, Ackerbauliche Betriebssysteme im
Strukturgleichungsmodell: Erfahrungen mit einem konfirmatorischen
Verfahren anhand von Beispielen aus Neolithikum und Eisenzeit
Archäologische Modellvorstellungen sind häufig historisch
oder ethnographisch inspiriert, wobei nicht direkt beobachtbaren
Parametern („latente Variablen“) eine große Bedeutung
zukommt. Solche latenten Variablen können z. B. Angaben zur
Bevölkerungsdichte, zur Intensität des Kultgeschehens oder
zur Akzeptanz von Neuerungen sein; eine typische Aussage wäre etwa
„auf den durch Bevölkerungsanstieg verursachten sozialen
Stress wird mit vermehrtem Kult und einer Ablehnung des Fremden
reagiert“.
Zur Überprüfung solcher Hypothesengebilde wurden insbesondere
in den Kognitions-, Sozial- und Wirtschaftswissenschaften
kausalanalytische Verfahren entwickelt. Wir berichten hier von
Erfahrungen mit sog. Kovarianzstrukturanalysen, wie sie zumeist
unter dem Stichwort Strukturgleichungsmodell (SEM) firmieren: Es
handelt sich um Mehrgleichungsmodelle, die dazu konzipiert sind, eine
Theorie („Strukturmodell“) konfirmatorisch abzusichern.
Testbare Hypothesen dienen zur Formulierung von quantitativ
überprüfbaren Aussagen („Messmodelle“).
Entscheidend ist dabei, dass das gesamte System der Hypothesen durch
Gleichungen verbunden und daher auch in seiner Gesamtheit zugleich
überprüfbar gemacht wird.
Das Verfahren kann in erster Näherung als Schätzverfahren
für die Anpassungsgüte eines Modells an die empirischen Daten
verstanden und als eine Kombination von Faktoren- und
Regressionsanalysen beschrieben werden. Eine Reihe von Software steht
hier für unterschiedliche Anwendungen zur Verfügung
(PRELIS/LISREL, NEUSREL, AMOS für Windows, daneben OpenMx in R).
Die Ansprüche an die empirischen Daten als Grundlage des
Messmodells sind hinsichtlich Umfang und Spezifikation
(klassischerweise unabhängig, multinormalverteilt, lineare
Zusammenhänge u.a.) der Eigenschaften als hoch zu bezeichnen, so
dass wir nicht von einer allgemeinen Anwendbarkeit in der
Archäologie ausgehen; fruchtbar könnten die Methoden bei der
Auswertung großer bestehender Datenmengen vor allem dann werden,
wenn Sie zur Prüfung komplexer Theorien oder zukünftig als
Teil explorativer Prozeduren genutzt werden.
Unser Strukturmodell bezieht sich auf die mitteleuropäische
Pflanzenproduktion vor Einführung des Pfluges sowie auf
pflugbauliche Betriebssysteme, beziehungsweise auf deren jeweilige
Nebeneffekte, für die Messmodelle erstellt werden können. Das
Strukturmodell wurde anhand von historischen und ethnographischen Daten
erstellt. Es wird zunehmend durch Schätzungen - u.a. lineares
Programmieren - in seinen Restriktionen bestimmt (DFG Projekt
„Ökonometrie des mitteleuropäischen
Neolithikums“). Die Messmodelle nutzen archäobotanische,
insbesondere palynologische Daten (DFG Projekt
„Vegetationsgeschichtliche und archäobotanische
Untersuchungen zur neolithischen und bronzezeitlichen Landnutzung am
Bodensee“). Es werden besonders die Erfahrungen mit der
Erstellung von Messmodellen referiert werden. Der Vortrag ist als
Bericht zu work in progress zu verstehen.
Lit.: K. G. Jöreskog / D.
Sörbom, LISREL 7: A Guide to the Program and Applications (Chicago
1989). B. M. Byrne, Structural Equation Modeling with AMOS. Basic
Concepts, Applications, and Programming. Multivariate Applications
Series (Mahwah 2001). -- R. B. Kline, Principles and Practice of
Structural Equation Modeling (New York 2005).
Harald
Stäuble / Th. Preuss, Nicht nur zur Visualisierung: Bandkeramische
Brunnen im 3D-Model
3D-Visualisierungen von komplexen Befund- und Fundsituationen sind
nicht nur dafür geeignet, dem breiten Publikum ein lebendiges Bild
eines Jahrtausende alten Fundes bzw. Befundes zu vermitteln -
wenngleich das mitunter ein nützliches Nebenprodukt ist. Eine
3D-Aufnahme (in ACAD) und -Darstellung (auf ACAD Basis, dann in 3D-Max
übertragen) der Konstruktionshölzer und der im Brunnen
liegenden Funde dient zunächst vor allem dafür, eine
Konstruktion sichtbar werden zu lassen, die man aufgrund der
notwendigen detaillierten Grabungsmethoden in Schichten und dem
stufenweise erfolgten Abtrag so vollständig nur bei der Erbauung
hat sehen können. Zudem zeigt sich, dass eine 3D-Dokumentation der
großen Vielfalt an Funden vor allem bei der Bearbeitung der
verschiedenen Fundlagen an sich eine große Hilfe bei der
Interpretation der Brunnensedimentation. Dabei spielt es keine
große Rolle, ob man die Grabungsdokumentation nachträglich
digitalisiert, oder ob die Objekte gleich vor Ort, bei der Grabung
selbst 3D-gescant werden.
Zur Diskussion sollen die technischen Möglichkeiten und
Alternativen gestellt werden, wobei wir uns auch weitere Anregungen
für weitere, eventuell optimierte und weniger zeit- und
rechenaufwändige Methoden erhoffen. Zudem suchen wir noch um einen
geeigneten Weg, um diese Datengrundlage auch zusammen mit der
Publikation sowohl für die Fachschaft als auch für das
interessierte Publikum zugänglich machen können.
Silke Langenberg / Martin Sauerbier, Kombination
von Tachymetrie und Nahbereichsphotogrammetrie zur Modellierung eines
verstürzten Giebels in Kalapodi, Griechenland
Die Heiligtumsgrabung, höchstwahrscheinlich das Orakel von Abai in
der antiken Landschaft Phokis, liegt bei Kalapodi in
Mittelgriechenland. Die Grabungen wurden 1972-82 von Rainer C.S. Felsch
begonnen und 2004 unter Leitung von Wolf-Dietrich Niemeier, Direktor
der Athener Abteilung des DAI wieder aufgenommen. Der Ursprung des
Kultes liegt in mykenischer Zeit (13 Jh. v. Chr.). Bis heute wurden
acht Tempelbauten übereinander vom 8. Jh. vor bis zum 2. Jh. nach
Chr. ausgegraben. 2007 kam der verstürzte Steingiebel des
archaischen, hölzernen Südtempels zu Tage, welcher
während der Brandzerstörung durch die Perser nach 480 v. Chr.
vor den Tempel stürzte – in Folge ist der Kalkstein bis zur
Kalzinierung verbrannt und zersprungen.
Ziel unserer Arbeiten im Herbst 2009 war die 3D-Dokumentation und
-Modellierung dieses Giebels als Grundlage für
Restaurierungsvorschläge, bevor er gehoben und damit
unwiederbringlich aus seiner Versturzlage entfernt wird. Zu diesem
Zweck entschieden wir uns für eine Aufnahme des Objektes mittels
Tachymeter einerseits und Bildern andererseits: Während die
Tachymetrie eine genaue und selektive Aufnahme von 3D-Punkten erlaubt,
können aus den photogrammetrischen Bildern weitere geometrische
Informationen (Kanten, dichte 3D-Punktwolken) sowie Texturinformationen
extrahiert werden. Die eingesetzte Totalstation (Leica-Tachymeter TCR
1205+) ermöglichte in Kombination mit der Software TachyCAD (Kubit
GmbH/ Applikation für das Zeichenprogramm AutoCAD® der Firma
Autodesk®) die Erzeugung eines „Kantenmodells“ des
verstürzten Giebels bereits im Feld: Jeder Stein des Giebels sowie
einige darunter liegende oder anschliessende Bauteile wurden in ihrer
Grundstruktur dreidimensional erfasst, d.h. zahlreiche (Eck-)Punkte mit
Hilfe des Tachymeters gemessen, die Steinkanten am Rechner im Programm
TachyCAD® direkt miteinander verbunden und in ihrer genauen
räumlichen Lage dreidimensional dargestellt. Eine Kontrolle konnte
unmittelbar erfolgen. Die auf diese Weise sehr zügig entstandene
Topologie enthielt allerdings keinerlei Texturen und nur wenige Details
– veranschaulichte die genaue räumliche Lage und
Verschiebungen einzelner Bauteile jedoch sehr gut.
Die Bildaufnahme erfolgte mit einer digitalen Spiegelreflexkamera Nikon
D2XS mit einem Bildformat von 12 Mpixeln. Um eine komplette
stereoskopische Abdeckung des Objektes zu erhalten wurden Aufnahmen vom
Boden sowie von einem erhöhten Standort (mittels Leiter)
aufgenommen. Die Parameter der inneren Orientierung der Kamera
(Kammerkonstante, Bildhauptpunkt, Verzeichnungsparameter) wurden mit
Hilfe von codierten Zielmarken und der Software iWitness bereits im
Feld mittels Bündelausgleichung bestimmt.
Im Rahmen der photogrammetrischen Auswertung wurden die aufgenommenen
Bilder zunächst durch Messung von Verknüpfungspunkten relativ
orientiert. Die Verknüpfungspunkte wurden grösstenteils
automatisch in LPS (Leica) gemessen und editiert. Zur absoluten
Orientierung konnten die tachymetrisch gemessenen Punkte als Passpunkte
verwendet werden. Die Bündelausgleichung wurde aufgrund der
konvergenten Aufnahmekonfiguration nach Import der Bild- und
Objektkoordinaten der Passpunkte bzw. der Verknüpfungspunkte in
Photomodeler 6 (EOS Inc.) durchgeführt. Somit liegen nach
erfolgreicher Bündelausgleichung Tachymetermessungen und
photogrammetrische Messungen im selben Koordinatensystem vor. Mittels
der orientierten Bilder wurde unter Verwendung des in der Software
SAT-PP (4DiXplorer AG) implementierten Matching-Algorithmus eine dichte
3D Punktwolke automatisch erzeugt, welche als Ergänzung zu den
Tachymetermessungen verwendet werden kann. Die Fusion der beiden
3D-Modelle wurde mit dem in der Software Geomagic Studio (Raindrop
Inc.) implementierten Iterative Closest Point (ICP) Algorithmus
durchgeführt, mit dem die restlichen Datumsunterschiede beseitigt
wurden.
Das Endresultat ist ein fusioniertes 3D Modell des Giebels mit
photo-realistischer Textur. Es ist geplant dieses mit Hilfe
computergesteuerter Geräte für eine museale Präsentation
zu materialisieren.
Matylda Gierszewska, Topographiewandlung vom
Mittelalter bis zur Gegenwart im Ingelheimer Saalgebiet.
GIS-gestützte Rekonstruktion des Geländes
Die Kaiserpfalz Ingelheim liegt im östlichen Teil der
gegenwärtigen Gemarkung dieser Stadt im so genannten Saalgebiet.
Die ersten Grabungen in der Pfalzanlage datieren in den Anfang des 20.
Jahrhunderts. Die archäologischen Untersuchungen wurden zweimal
wieder aufgenommen, nämlich 1960 und 1993. Das Ende der von der
Forschungsstelle Kaiserpfalz Ingelheim aktuell durchgeführten
(Untersuchungen) Ausgrabungen ist für 2011 geplant.
Das Untersuchungsgebiet dieses Projektes umfasst außer der
karolingischen Anlage auch die staufische Erweiterung und die
nähere Umgebung mit Resten der Befestigung.
Das Hauptziel dieser Arbeit ist die Darstellung und Vergleichsanalyse
der Geländeveränderungen dieses Gebietes zwischen dem 8. und
21. Jahrhundert. Dafür werden die Höhenwerten aus allen
Grabungskampagnen von 1909 bis 2009 gesammelt und ausgewertet. Als
weiteres Quellenmaterial werden die Geländeprofile in analoger
Form benutzt. Anschließend wird das ganze Untersuchungsgebiet
vermessen, um das aktuelle Geländemodell erstellen zu können.
Für die Abgrenzung der einzelnen Bereiche (engl. barriers) werden
die Umrisse der Gebäude, der Plätze oder anderer
anthropologischer Strukturen benutzt. Die dafür notwendigen Daten
werden aus Grabungszeichnungen, bauhistorischen Bearbeitungen und
historischem Kartenmaterial abgelesen.
Die Erarbeitung der Methode, mit der man die Veränderung des
Geländes nachvollziehen kann, ist lediglich ein Nebenziel dieses
Projektes. Die wichtige und zentrale Rolle hat auch die Anwendung der
Geographischen Informationssysteme in den archäologischen
Untersuchungen.
Es werden für fünf Zeitabschnitte digitale
Geländemodelle (kurz DGM) angefertigt. Das erste erfasst die
Vorbereitungen des Geländes für den Bau der Kaiserpfalz im 8.
Jahrhundert. Zwei weitere Modelle bilden die erste karolingische Phase
der Bebauung und die staufische Erweiterung ab. Abschließend
werden die Veränderung des 17./18. Jahrhunderts und die aktuelle
Form des Terrains dargestellt.
Für das Generieren der 2,5-dimensionalen Geländemodelle
werden unterschiedliche statistische und nicht statistische
Interpolationsverfahren benutzt, unter Anderem Kriging, die Inverse
Distanzwichtung und Spline.
Da Höhenwerte nur aus den unregelmäßig über das
Gelände verteilten Grabungsflächen gewonnen werden
können, ist das Höhenpunktenetz ebenfalls
unregelmäßig. Dementsprechend wird die Darstellung des
aktuellen Geländes auf der Basis von einem
unregelmäßigen und regelmäßigen Netz
interpoliert. Von diesen Modellen wird auch der Effektivwert-Fehler
(engl. RMSE – Root Mean Square Error) berechnet. Von allen
Modellen werden die Geländeprofile sowohl parallel zur Neigung des
Terrains als auch senkrecht erstellt und verglichen. So soll ein Bild
der Geländeveränderung entstehen.
Der ganze Prozess wird mit dem Programm ArcGIS 9.2 durchgeführt.
Dadurch, dass der größte Teil der Quellen - wie die
Grabungszeichnungen - digital im .dwg-format vorliegen, werden die
vorbereitenden Arbeiten im AutoCAD 2008 gemacht.
Resultate dieser Arbeit sind sowohl die einzelnen Geländemodelle
als auch die Vergleichsanalyse der Topographiewandlung. Diskutiert
werden außerdem die Genauigkeit dieser Modelle und die
Nutzbarkeit der archäologischen Daten. Zudem wird eine neue
Technologie, nämlich die Geographischen Informationssysteme und
ihre Anwendung in der Archäologie präsentiert.
Volker
Soßna, Computeranwendung und archäologische Feldarbeit in
der Praxis. GIS und Datenbank im Projekt "Anden-Transekt" in
Süd-Peru
In der Gegend um die Kleinstadt Palpa im Süden Perus liegen so
verschiedene Naturräume wie die Küstenwüste und das
andine Hochgebirge eng bei einander. Dieses Wüstenrandgebiet
reagiert besonders sensibel auf klimatische Veränderungen mit weit
reichenden Konsequenzen für die ansässige Bevölkerung.
Im Projekt Anden-Transekt arbeiten Archäologen des DAI mit
Forschergruppen aus verschiedenen Disziplinen wie der Geographie,
Archäometrie und Anthropologie zusammen, um die Wechselwirkungen
zwischen Umwelt- und Kulturentwicklung in vorspanischer Zeit zu
untersuchen. Die Vielfalt der gewonnenen Daten ermöglicht
detaillierte Analysen zu zahlreichen Fragestellungen, stellt aber auch
die praktische Speicherung und Verknüpfung der gesammelten
Informationen vor große Herausforderungen.
Im Rahmen eines archäologischen Dissertationsvorhabens sollen
Änderungen in den Siedlungsmustern und der Landnutzung
vorspanischer Kulturen im Zusammenhang mit Klimaschwankungen untersucht
werden. Dazu sollen Daten aus geographischen Arbeiten sowie
Pollen-,Isotopen- und Gen-Analysen mit archäologischen Funden und
Befunden verglichen und in eine gemeinsame Datenbank und ein GIS
integriert werden. In bisherigen Arbeit konnten so bereits
auffällige Kongruenzen zwischen Schwankungen der
Niederschlagsmenge und -verteilung und dem Auflassen bzw. Anlegen von
Siedlungen in bestimmten Zonen gezeigt werden. Nun sollen feinere
Analysen unter Einbeziehung weiterer Kriterien, z.B. der Verteilung
bestimmter Fundtypen und Bauweisen einbezogen werden.
Umgekehrt möchten Kollegen aus anderen Fachbereichen
archäologische Daten in ihre Arbeiten einbeziehen. Die Datenbank
soll daher von allen Projektpartnern auch ohne große
Vorkenntnisse über Datenbank-Strukturen genutzt werden
können, um schnell eine Übersicht über die für eine
ganz spezielle Fragestellung relevanten Daten zu bekommen.
Der Bestand an Daten stammt zum großen Teil aus deutlich kleiner
angelegten, rein archäologischen Vorgängerprojekten und wurde
ursprünglich in einer nicht normalisierten Access-Datenbank in
Text- und Memofeldern gespeichert. Die nachträgliche
Normalisierung und vor allem die Übertragung der Information in
die neue Struktur ist Voraussetzung für die Einbindung in ein GIS
und weiter gehende Analysen. Parallel dazu kommen laufend neue Daten
aus den aktuellen Feldarbeiten hinzu.
Um die Datenaufnahme, -synchronisation, -pflege, –analyse und
-visualisierung zu bewältigen sind umfangreiche Programmierungen
in VBA notwendig, um möglichst viele Prozesse automatisiert
ablaufen zu lassen. VBA ermöglicht auch die Nutzung von Features,
für die Access von Haus aus nicht ausgelegt ist. Dazu gehört
die Darstellung von Zeitstellung und Klasse eines Fundortes in einer
Tabellenmatrix statt in einem Endlosformular, die synchrone Anzeige von
Bild- und Kartenmaterial beim Scrollen durch Datensätze in einem
Formular sowie die Einbindung einer Übersichtskarte, auf der
beispielsweise die Position eines Fundortes in Abhängigkeit von
seinen Koordinaten angezeigt wird, ohne dafür erst das GIS laden
zu müssen.
Da vermutlich auch andere Projekte vor ähnlichen Fragen stehen,
sollen mögliche Antworten beispielhaft vorgestellt werden.
Jörg
Nowotny, Alte Daten in neuem Gewand - GIS-gestützte Aufarbeitung
des kaiserzeitlichen Waffenopferplatzes von Ejsbøl, Haderslev
Kommune
Die Forschungen in Ejsbøl begannen 1955, als bei der Anlage von
Drainagen im gleichnamigen Moor Waffen aus dem 4. und 5. Jh. n. Chr.
zutage kamen. Zeitnah erfolgten ab 1956 umfassende Ausgrabungsarbeiten
durch das dänische Nationalmuseum (Mogens Ørsnes) in
Zusammenarbeit mit dem Haderslev Museum (Hans Neumann) (heute Museum
Sønderjylland), die ihren vorläufigen Abschluß 1964
fanden. Bei diesen Grabungsarbeiten wurde eine Fläche von 1700m2
erfasst und insgesamt rund 16000 Objekte geborgen.
In der Publikation „Ejsbøl I. Waffenopferfunde des 4.
– 5. Jh. n. Chr.“ publizierte Mogens Ørsnes 1988 die
Ergebnisse der Grabungen als ein Großopfer der römischen
Kaiserzeit. Ørsnes ursprüngliche Annahme, die mit den
Grabungen die Opferungen in ihrer Gesamtheit erfasst zu haben, wurde
von ihm selbst im Zuge der 1950 bis 1956 durchgeführten und ab
1975 bis 1985 weitergeführten Ausgrabungen in Illerup Ådal
revidiert.
Bei Arbeiten zur Anlage eines Sees 1992 wurde im westlichen Bereich des
Ejsbøl- Moores eine weitere Opferung zerstört. Daraufhin
erfolgten gezielte Nachgrabungen und Detektorbegehungen in diesem
Bereich sowie von 1997 bis 1999 planmäßige Ausgrabungen im
Südbereich des Moores. Bei diesen neuen Grabungen wurden rund 5300
m2 archäologisch untersucht, und es konnten insgesamt rund 1450
Funde geborgen werden.
Dabei konnten aufgrund des Fundmaterials mehrere Opferungen vom 1. Jh.
v. Chr. bis zum 5. Jh. n. Chr. herausgearbeitet werden. Im Kontext mit
den 1955 – 1964 untersuchten Flächen ergibt sich nunmehr ein
sehr komplexes Bild. Insgesamt wurden zwei Projekte ins GIS umgesetzt.
Zunächst wurden in Kooperation mit den dänischen Kollegen A.
N. Jørgensen, Moesgård und H. Chr. Andersen, Haderslev,
Verbeitungskarten für die Publikation „Krigsbytteoffre i
Ejsbøl Mose. Sen 1. årh. f. Kr. Til tidligt 5. årh.
e. Kr.“ erstellt.
Als weiteres wurden die Grabungspläne der Jahre 1955 bis 1964
eingescannt und die Funde lagerichtig digitalisiert. Dadurch war es
erstmalig möglich, einen Gesamteindruck der Grabungen und des
Fundmaterials zu erlangen. In der parallel dazu geführten
Datenbank wurden die bislang nur im Buch vorhandenen Fundtabellen
eingepflegt. Die Verbindung des GIS mit dieser Datenbank
ermöglicht eine Fülle von gezielten Informationsabfragen, die
es ermöglichen, dynamisch mit den Altfunden arbeiten zu
können.
So sind im GIS Abfragen des Materials nach Fundart, Fundkategorie u.v.m
möglich. Auch gezielte Abfragen nach bestimmten Funden sind
über die integrierte Suchfunktion schnell abzuarbeiten. Ein
weiterer Arbeitsschritt ist die Transformation der Geodaten von dem bei
der Grabung verwendeten lokalen Koordinatensystem in das UTM –
System. Dies erlaubt erstmalig eine gemeinsame Projektion des
Fundmaterials aus den Grabungen 1955 - 1964 zusammen mit dem in den
Jahren 1997 – 1999 geborgenen, wodurch eine vergleichende
Gesamtbetrachtung möglich wird.
Neben der rein zweidimensionalen Arbeit sind auch im dreidimensionalen
Bereich Möglichkeiten vorhanden. Mangels geeigneter Daten konnten
keine dreidimensionale Modelle der Grabungen 1955 bis 1964
herausgearbeitet werden. Es gelang jedoch, ein dreidimensionales
Geländemodell als TIN sowie als Oberflächenmodell zu
erarbeiten, auf dessen Grundlage eine Vielzahl von Analysen wie etwa
Hangneigungen, Orientierung einzelner Geländeabschnitte und andere
möglich sind.
In Verbindung mit anderen Mooropferplätzen sind somit in zwei- und
dreidimenionaler Form vergleichende Studien möglich, die
sukzessive ein klareres Bild zeichnen. Die Einbeziehung weiterer
archäologischer und naturwissenschaftlicher Daten eröffnen in
der Perspektive völlig neue und komplexe Möglichkeiten und
Forschungsansätze.
Georg
Roth, Die Zukunft von Punktkartierungen. Bandbreitenoptimierte
2D/3D-KDE als neue Analysemethode für Einzelfundeinmessungen
Die Kartierung und rein visuelle Interpretation von Punktverbreitungen,
ob nun auf Karten oder Grabungsplänen,
gehört zu den wichtigsten Auswertungsschritten bei
archäologischen Raumdaten. Grundlegende Fragen sind etwa: Wo
liegen die Schwerpunkte und zentralen Bereiche einer Verteilung? Oder,
welche Verteilungsstruktur liegt vor und wie ist die Beziehung zu
anderen (Punkt-)Verteilungen?
Diese Fragen lassen sich durch die Verwandlung der Vektorinformation
'Punktkoordinate' in eine Rasterkarte mittels Kerndichteschätzung
lösen (engl. kernel density estimation, kurz KDE). KDE
schätzt auf der Basis der Punktkoordinaten die Dichte der
Verteilung und erzeugt als Ergebnis eine Rasterkarte, deren Z-Wert eine
Dichteangabe beinhaltet, also Punkt/-e pro Flächeneinheit. Auf
diese Weise lassen sich Punktkartierungen bzw. -koordinaten in
Rasterkarten der Dichte und schließlich in Dichte-Isolinienkarten
verwandeln.
Der bisherige Einsatz von Kerndichteschätzungen ist jedoch (noch)
von der Problematik der sog. Bandbreitenwahl beeinträchtigt
(Conolly 2006; vgl. z. B. Nigst 2004), so das bisherigen Resultaten
stets noch eine gewisse Willkürlichkeit anhaftete. Als Bandbreite
wird der Parameter bezeichnet, der die Verteilung des Dichtebeitrages
eines Punktes im Raum steuert. Für die Wahl dieses zentralen
Parameters existieren zwar (noch) keine methodisch verbindlichen
Regeln, allerdings bieten KDE-packages der freien
Statistikoberfläche R Funktionen zur Bandbreitenoptimierung und
ihrer Umsetzung an (z. B. package ks).
Der Vortrag beschreibt das Verfahren für 2D genauer, die
3D-Anwendung ist eine bloße Erweiterung. Das Vorgehen wird an
drei Fallstudien exemplifiziert, einem zwei- und zwei dreidimensionalen
Beispielen. Als Fallbeispiel für eine KDE in zwei Dimensionen
dient eine Kartierung von Surveyfunden von einem eisenzeitlichen
Fundplatz (Daten: Dr. N. Rupp/Uni Ff. a. M.). Die Anwendung in drei
Dimensionen wird anhand von zwei Verteilungen einzeln eingemessener
Funde aus Grabungsschnitten demonstriert, einmal Keramikfragmenten vom
gleichen Fundplatz und einmal Silexartefakten von einem
Ertebölle-Freilandfundplatz (Daten: vgl. Bradtmöller 2008).
Die 3D-KDE stellt eine Premiere in der mitteleuropäischen
Archäologie dar.
Lit.: M. Bradtmöller,
Fedderingen Wurth, an Ertebølle site at the North Sea coast
Fedderingen Wurth. Quartär 55, 2008, 127 ? 134. -- Ph.
Nigst, Eine Behausung aus dem Gravettien? Vorläufige Ergebnisse
der GIS-basierten Analyse der räumlichen Verteilung der
Fundobjekte in Grub/Kranawetberg (Niederösterreich). Arch. Austr.
88, 2004, 29-66. -- J. Connolly und M. Lake, Geographical Information
Systems in Archaeology. Manuals in Archaeology (Cambridge 2006).
Alden
Yépez / Irmela Herzog, Vergleich verschiedener Methoden zur
Analyse von Siedlungsmustern im Flusstal La Plata, Kolumbien
Im Jahr 1983 fanden systematische Feldbegehungen am Oberlauf des
Flusstales La Plata, im südlichen Hochland Kolumbiens, unter der
Leitung des nordamerikanischen Archäologen Robert D. Drennan
statt. Für das 2200 km² große Untersuchungsgebiet
wurden drei Schwerpunktareale festgelegt. Von besonderem Interesse ist
hier das westliche Areal mit einer Fläche von knapp 319 km².
In diesem Areal wurden auf 4601 kleineren Untersuchungsflächen mit
einer mittleren Größe von 0,75 Hektar entweder
Oberflächenfunde oder Funde aus Schaufelproben geborgen. Ziel der
Analyse dieser Daten von Drennan und seinen Kollegen war die
Rekonstruktion der Siedlungsmuster anhand der Verteilung der
Keramikscherben im Gelände. Dabei können drei Hauptperioden
unterschieden werden: Formativo (1. Jt. v.Chr.), Clasico Regional (bis
ca. 900 n.Chr.) und Reciente (bis 1530 n.Chr.), wobei für
Formativo drei Unterperioden im Keramikspektrum erkennbar sind. Die
Verteilung der Funde aus der Periode Clasico Regional sieht Drennan als
ein klares Indiz für die Entstehung größerer
Organisationseinheiten (Häuptlingstümer) am Oberlauf des
Flusstales La Plata.
Um Grenzen zwischen Siedlungsarealen auf verschiedenen Skalenniveaus zu
rekonstruieren, entwickelte Drennan eine Methode zur Dichteberechnung.
Dabei wird zunächst mit Hilfe der Scherbendichten in den kleinen
unregelmäßigen Untersuchungsflächen die Funddichte
für Gitterpunkte im 100m-Abstand errechnet. Auf der Grundlage
dieses Gitters werden die Fund¬dichten mit der
„inverse-distance“-Methode (IDW) interpoliert. Für die
IDW-Interpolation wird der Suchradius so gewählt, dass das
gesamte Gebiet eingeschlossen ist; der Exponent steuert die
Glättung der Dichtedarstellung. Die territorialen Grenzen werden
dort gezogen, wo die Punkthäufigkeiten ausdünnen. Diese
Methode zur Dichteberechnung benötigt eine große Anzahl
Rechenschritte, denn das Ergebnis berücksichtigt alle
Gitterzellen, auch die sehr weit entfernten. Die Steuerung der
Glättung durch den Exponenten ist wenig intuitiv, und viele
Programme, die die IDW-Methode anbieten, unterstützen nur
Exponenten größer oder gleich 1, nicht aber 0,001, wie von
Drennan vorgeschlagen.
Die Kerndichteschätzung ist eine andere, statistisch fundierte
Methode zur Berechnung der Funddichte. Die Glättung kann in
intuitiverer Weise durch die so genannte Bandbreite gesteuert werden.
Zusätzlich ist es einfach möglich, verschiedene Varianten zu
rechnen, bei denen u.a. die topographischen Gegebenheiten
berücksichtigt werden.
Drennan stellt die Daten aus dem Prospektionsprojekt und die Ergebnisse
seiner Dichteberechnung im Internet zur Verfügung, so dass es
möglich war, diese einer neuen Analyse mit der
Kerndichteschätzung zu unterziehen. Im Vortrag werden die beiden
genannten Methoden zur Dichteschätzung anhand der Beispieldaten
aus La Plata verglichen.