Workshop „Argumentationsanalyse“

Am 24./25. November 2016 findet im Göttingen Centre for Digital Humanities in Göttingen ein Workshop zum Thema Argumentanalyse statt.

Dozenten sind Christian Stab und Carsten Schnober (UKP Lab, Informatik, TU Darmstadt)

Kurzbeschreibung

Argumentationsanalyse ist ein neues Forschungsgebiet in der maschinellen Sprachverarbeitung, welches sich mit der automatischen Erkennung von Argumenten, deren Komponenten und Strukturen in natürlichsprachlichen Texten befasst. In den letzten Jahren hat sich dieses neue Forschungsfeld als eines der am schnellsten wachsenden Gebiete in der maschinellen Sprachverarbeitung entwickelt, was sich in einer stetig wachsenden Anzahl von Publikationen auf top-level Konferenzen manifestiert. Ziel dieses Workshops ist, einen Einblick in die aktuellen Ansätze zu vermitteln und deren Anwendbarkeit auf geistes- und geschichtswissenschaftliche Fragestellungen zu untersuchen.
Link zum Programm

Workshop in Braunschweig

Vom 11-14.10.2016 fand ein Workshop am Georg-Eckert-Institut für Internationale Schulbuchforschung in Braunschweig statt.

Thema das Workshops war:

Semantic Web and Linked Open Data: motivations, solutions, models and technologies. Applications for Text Retrieval

gehalten von Armando Stellato, Universität Rom

Link zum Programm

 

Endgültiges Tagungsprogramm online!


 

Die Welt der Kinder Weltwissen und Weltdeutung in Schul-­ und Kinderbüchern des 19. und frühen 20. Jahrhunderts
Internationale Tagung an der Universität Zürich vom 4. bis 6. Februar 2016

Tagungsprogramm

Link zur Tagungswebsite

Internationale Tagung “Welt der Kinder” – an der Universität Zürich vom 4. bis 6. Februar 2016

Die Welt der Kinder

Weltwissen und Weltdeutung in Schul- und Kinderbüchern des 19. und frühen 20. Jahrhunderts
Internationale Tagung an der Universität Zürich vom 4. bis 6. Februar 2016

Die Tagung will neuere Forschungen zur Geschichte populären Wissens mit kulturgeschichtlichen Forschungen zu schulischen Bildungsmedien sowie zur Kinder- und Jugendliteratur des 19. und frühen 20. Jahrhunderts zusammenführen und dabei auch den Austausch mit Experten aus historisch orientierten Feldern der Digital Humanitiesfördern.

Achtung! Hier wird demnächst das Veranstaltungsprogramm veröffentlicht.

Hildesheimer Evaluierungs- und Retrievalworkshop 2015

Der diesjährige Hildesheimer Evaluierungs- und Retrievalworkshop hat sich umfangreich mit dem Thema Digital Humanities aus der Sicht der Informationswissenschaft beschäftigt. Als Einführung präsentierte Prof. Dr. Lauer, assoziertes Projektmitglied im Projekt Welt der Kinder, in seiner Keynote einen spannenden Überblick über Methoden in der digitalen Literaturwissenschaft: Lesen mit Maschinen. Computerbasierte Ansätze in der Literaturwissenschaft. In Bezug auf Projekt Welt der Kinder fokussierte der Vortrag von Ben Heuwing auf Methoden für die nutzerzentrierte Gestaltung von Werkzeugen für und mit den digitalen Geisteswissenschaften.

Für das Projekt E-Identity  im Bereich der Politikwissenschaft stellte Melanie Dick von der Universität Hildesheim ein Klassifikationsansatz basierend auf Topic Modellen vor. Melodien statt Text stehen im Vordergrund der multimodalen Analyse von Volksmusik aus dem Regensburger Volksmusikportal stellte Manuel Burghardt von der Universität Regensburg vor: MusicXML Analyzer – Ein Analysewerkzeug für die computergestützte Identifikation von Melodie-Patterns.

Diese und weitere Beiträge aus den Bereichen Internetsuche, Information Seeking und E-Learning finden Sie im Tagungsband:

Stefanie Elbeshausen, Gertrud Faaß, Joachim Griesbaum, Ben Heuwing, Julia Jürgens (Hrsg.): HiER 2015 – Proceedings des 9. Hildesheimer Evaluierungs- und Retrievalworkshop. Hildesheim : Universitätsverlag, 2015.

Online als Open Access

Projektstart “Welt der Kinder”

„Weltwissen und Weltdeutung in Schul- und Kinderbüchern zwischen 1850 und 1918“

Kinder sehen die Welt mit anderen Augen. Zugleich prägt die Sozialisation ihre Sicht der Dinge – heute wie vor 100 Jahren. Mit welchem Wissen von der Welt sind Kinder und Jugendliche damals aufgewachsen? Mit dieser Frage beschäftigt sich ein breit angelegtes wissenschaftliches Projekt, bei dem sieben verschiedene wissenschaftliche Institute und Bibliotheken unter Federführung des Georg-Eckert-Instituts (GEI) zusammenarbeiten. Das Forscherteam erprobt dabei neue Methoden der Digital Humanities und verbindet hermeneutische mit informatischen Ansätzen.

Im 19. und frühen 20. Jahrhundert erleben Bildung und Wissen eine Revolution – neben dem rasanten technologischen Wandel setzen sich Schulpflicht, Buchkultur sowie Schulbücher als Massenmedien durch. Dabei weiten und verengen die Globalisierungs- und Nationalisierungstendenzen im Deutschen Kaiserreich den Blick: Welche Bilder von der Welt hatten Heranwachsende unter diesen Bedingungen und wie haben sie sich verändert? Diese Frage steht im Zentrum des auf drei Jahre angelegten wissenschaftlichen Vorhabens. Dafür untersuchen die beteiligten Wissenschaftler diejenigen gedruckten Medien, zu denen Kinder in einer Zeit ohne Internet, Fernseher oder Radio Zugang hatten: Über 7.000 Schulbücher sowie Kinder- und Jugendbücher.

Die herausragende Quellenbasis ermöglicht es, die Veränderung von Wissensbeständen im zeitlichen Verlauf zu analysieren. Gleichzeitig können zum Beispiel unterschiedliche Medientypen wie Schul- und Kinderbücher miteinander verglichen werden.

Hermeneutik versus Digital Humanities?

Ausgehend von einer geschichtswissenschaftlichen Frage erprobt das Projekt als eines der ersten in Deutschland Werkzeuge der Digital Humanities. Es fragt dabei, welche informationstechnologischen Verfahren geeignet sind, um die riesige Anzahl an digitalen Quellen zu analysieren und wie diese weiterentwickelt werden können. Mittels computergestützer Analysen lassen sich die Themenfelder sowie Haltungen zu bestimmten Themen per Mausklick visualisieren – die Analyse geht so über rein quantitative Verfahren hinaus und trifft auch Aussagen zur Semantik.

Inwieweit diese sinnvolle Ergebnisse liefern, wird mit hermeneutischen Verfahren überprüft und ins Verhältnis gesetzt. Die enge Zusammenarbeit von Historikern, Literaturwissenschaftlern sowie Informatikern und Informationswissenschaftlern verspricht so neue Erkenntnisse über Potenziale und Grenzen digitaler Methoden und Werkzeuge für die historische Forschung.

Beteiligt sind das Braunschweiger Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung, das Deutsche Institut für Internationale Pädagogische Forschung (DIPF) mit Sitz in Frankfurt am Main und Berlin, die Technische Universität Darmstadt und die Universitäten Hildesheim, Göttingen und Zürich sowie die Bayerische Staatsbibliothek (BSB) München. Das transdisziplinäre Projekt schlägt so nicht nur eine Brücke zwischen verschiedenen Fachrichtungen, sondern auch zwischen außeruniversitären Forschungsinstituten und Universitäten sowie zwischen Forschung einerseits und digitalen Bibliotheken andererseits.

Gefördert wird das Projekt im Rahmen des Wettbewerbsverfahrens der Leibniz-Gemeinschaft (Senatsausschuss Wettbewerb – SAW) und geleitet wird es von Prof. Simone Lässig (Direktorin des GEI), und Robert Strötgen (Leiter der Abteilung „Digitale Informations- und Forschungsinfrastrukturen“ am Georg-Eckert-Institut).

________________________________________________________________

Offizielle Pressemitteilung

Kontakt:
Presse- und Öffentlichkeitsarbeit (kommissarisch), Direktionsassistenz / Institutsleitung
Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung
Celler Straße 3
38114 Braunschweig
Tel.: 0531-59099-330
Email: schoneville [at] gei [dot] de
www.gei.de