Home
 Home
Personal
 Personal
Lehre
 Lehre
Forschungsprofil
 Forschungsprofil
Geschichte
 Geschichte
Infothek
 Infothek

PD Dr. Andrea Lehr (Abstracts)
Startseite A. Lehr Lehrveranstaltungen Forschung Beruflicher Werdegang Private Homepage

Linguistische Theorie und lexikographische Praxis.Symposiumsvorträge, Heidelberg 1996. Hrsg. von Klaus-Peter Konerding und Andrea Lehr. Tübingen 1997 (Lexicographica. Series Maior 82). - 248 Seiten

- Abstract -

Bei dem nachfolgenden Text handelt es sich um eine leicht modifizierte Version des Vorworts der beiden Herausgeber(innen) in dem betreffenden Sammelband.

1 Zielsetzung

Der Sammelband umfaßt die Beiträge, die 1996 im Rahmen des in Heidelberg anläßlich des 60. Geburtstags von Herbert Ernst Wiegand veranstalteten Symposiums "Linguistische Theorie und lexikographische Praxis" (vgl. Fußnote 1) vorgestellt wurden. Zusätzlich wurde der Beitrag von Helmut Schnelle aufgenommen.

Das Symposium hatte die Zielsetzung, das als schwierig zu beurteilende Verhältnis zwischen theoretischer linguistischer und hier im wesentlichen lexikologischer Forschung und der - vielfach ebenfalls akademisch bestimmten - lexikographisch-praktischen Arbeit aus unterschiedlichen Perspektiven zu beleuchten. Zwar sind in dem genannten Bereich eine Vielzahl von Einzelpublikationen zu verzeichnen, aber eine tatsächliche Bestandsaufnahme und Klassifikation wichtiger Probleme, die sich bei der Umsetzung lexikologischer Ergebnisse in lexikographische Konzepte ergeben, erfolgte noch nicht. Linguist(inn)en halten die lexikographische Arbeit eher für trivial, und praktisch arbeitende Lexikograph(inn)en nehmen die Vorschläge aus linguistischen Theorien unter Umständen zur Kenntnis, setzen diese aber häufig nicht weiterführend um. Dies liegt z.T. an den unterschiedlichen Zielsetzungen.

Im Bereich der akademisch betriebenen Lexikographie sind umfassende Projekte, die zur Erstellung von Wörterbüchern führen, eher die Ausnahme als die Regel (allerdings galt dies nicht für die akademischen Großprojekte in der ehemaligen DDR). Aber auch im Rahmen seltener langfristiger akademischer Projekte unterbindet der Zwang zur Massendatenbearbeitung häufig grundlegende lexikologisch bestimmte Materialstudien und Detailuntersuchungen. Noch zu selten findet man darüber hinaus für die Zwecke und Bedürfnisse von miteinander kommunizierenden Sprecher(inne)n sorgfältig begründete Konzepte der Umsetzung und lexikographischen Präsentation theoriebestimmter Einsichten.

Auf der Seite der linguistischen Forschung sind dagegen eine Vielzahl theoriebestimmter, z.T sehr anspruchsvoll und detalliert entwickelter Studien zu unterschiedlichen Bereichen des Wortschatzes zu verzeichnen. Neben den traditionellen Analysen im Rahmen der Bemühungen des Strukturalismus und der Lexematik, die insbesondere den Trierschen Feldbegriff ins Zentrum ihrer Interessen stellte, finden vor allem seit Mitte der 70er Jahre zunehmend lexikonbasierte Syntaxmodelle die Aufmerksamkeit der Linguist(inn)en, wobei sich diese Syntaxmodelle zumeist als Varianten und Weiterentwicklungen generativer Modelle erweisen. Das zunehmende Interesse an lexikonbasierten Modellen trifft vor allem auf den Bereich des neu entstandenen Paradigmas der computerorientierten Linguistik zu. Im Rahmen dieser Forschungen wurde und wird u.a. versucht, traditionelles lexikographisches Material für die implementierten Modelle lexikonbasierter Grammatiken nutzbar zu machen. Diese Versuche sind weitgehend fehlgeschlagen, da sich die bisherigen Formen einer an maschinellen Zwecken ausgerichteten Auswertung hinsichtlich der Präsentation der sprachbezogenen Information in den beschreibungssprachlichen Formulierungen der Wörterbücher, die prinzipiell recht uneinheitlich und z.T. ungenau sind, als ungeeignet erwiesen. Hier ist sicher zu fragen, ob die spezifizierten Bedürfnisse der Lexikographie für den Computer nicht auch zu einer Verbesserung klassischer lexikographischer Produkte führen könnten und sollten, oder ob die spezifischen Bedürfnisse von Mensch und Maschine tatsächlich prinzipiell unterschieden werden müssen. Die "Wörterbücher" der Zukunft sind jedoch ohne Zweifel an elektronische Medien gebunden, die auf komplex strukturierte und organisierte Datenbanken zurückgreifen. Die Entwicklung in diesem Bereich hat gerade begonnen. Insofern setzt die maschinenorientierte Lexikographie auch neue Standards für Präzision im Bereich der traditionellen Praxis. Ähnliches ist für den Bereich der lexikologischen Forschung zu konstatieren, insofern neue Bedürfnisse weitergehende und genauere lexikologische Analysen verschiedenster Wortschatzbereiche notwendig machen, man denke etwa an die exemplarische Analyse zu den Dimensionsadjektiven von Bierwisch und Lang.

Herbert Ernst Wiegand ist seit langem bemüht, in den Forschungsfeldern der von ihm so benannten "praktischen Lexikologie" und der "Metalexikographie" einerseits die Ergebnisse der lexikologischen Forschung für die Sprachpraxis zu erschließen und fruchtbar zu machen, andererseits aufgrund detaillierter Analysen von realisierten Typen und Möglichkeiten der lexikographischen Datenerhebung und Datenpräsentation im Zusammenhang mit einer von ihm begründeten akademischen Wörterbuchbenutzerforschung neue Präzisionsstandards für die ein- und zweisprachige Lexikographie zu erarbeiten. In diesen Bereichen sind in den letzten 20 Jahren umfangreiche Ergebnisse erzielt worden.. Aus diesem Grund haben wir den 60. Geburtstag von Herbert Ernst Wiegand zum Anlaß genommen, anhand eines Symposiums eine Bestimmung des derzeitigen Standorts der Forschung im Übergangsbereich von Lexikologie und Lexikographie zu versuchen, mit der weiteren Zielsetzung, bisherige Ergebnisse kritisch zu reflektieren, aktuelle Probleme zu lokalisieren und derzeitige Forschungslücken und Desiderata zu bestimmen.

2 Die einzelnen Beiträge

Im Gegensatz zu den anderen Beiträgen des Sammelbandes, die sich einzelnen, ausgewählten Fragestellungen widmen, behandeln die beiden ersten Beiträge das Thema "Linguistische Theorie und lexikographische Praxis" in seiner Gesamtheit.

Formen und Probleme der lexikographischen Datenauswahl, -präsentation und -aufbereitung und damit zentrale Aspekte des lexikographischen Gegenstandsbereiches behandeln Hartmut Schmidt, Gisela Harras, Dieter Herberg, Klaus-Dieter Ludwig, Gerhard Augst und Ursula Brauße. Die Beiträge dieses thematischen Schwerpunktes bieten einen Querschnitt zu zentralen Fragestellungen des Verhältnisses von Lexikologie und Lexikographie anhand von ausgewählten, derzeit als "schwierig" zu bezeichnenden Einzelbereichen des Wortschatzes.

  • Hartmut Schmidt weist anhand spezifischen Belegmaterials nach, daß der Gebrauch syntagmatischer Fügungen im Sinne von Formulierungsversatzstücken oder Formeln, die als Variationen exponierter Präzedenzfälle verstanden werden müssen, ein vor allem in der Gegenwartssprache relativ auffälliges Phänomen ist. Schmidt widmet sich zunächst der eingehenderen Charakterisierung etablierter und produktiver Formulierungsmuster sowie ihrer Abgrenzung gegenüber den Phraseologismen. Für Schmidt steht außer Frage, daß die Kenntnis entsprechender Muster zur sprachlichen Kompetenz zählt. Hieraus ergibt sich als Aufgabe für die Lexikographie, unter Berücksichtigung möglicher Adressat(inn)enkreise neue Formen der Datenerhebung und -präsentation zu entwickeln, die es gestatten, die entsprechenden Muster angemessen zu erfassen.
  • In der Kontinuität dieser Thematik unternimmt Gisela Harras eine Bestandsaufnahme der wissenschaftlichen Diskussion zu Phänomenen im Bereich der sogenannten Phraseologismen und gelangt so zu dem Ergebnis, es sei wünschenwert, speziell in Lerner(innen)wörterbüchern die syntaktisch-semantischen Beschränkungen für die verschiedenen Typen/Varianten von Phraseologismen genauer zu spezifizieren.
  • Dieter Herberg und Klaus-Dieter Ludwig behandeln mit der Betrachtung des Gebiets der Neologismen bzw. der Archaismen Fragestellungen zu temporal prominenten Bereichen des Wortschatzes und deren Dynamik, diskutieren damit Problembereiche an der Peripherie synchron verfügbarer Wortschätze. Beide diskutieren die Behandlung der betreffenden Wortschatzbereiche in allgemeinen einsprachigen Wörterbüchern und stellen ihre Konzeptionen zu geplanten Wörterbüchern zu Neologismen bzw. Archaismen vor.
  • Der Beitrag von Gerhard Augst behandelt Probleme der Lemmaselektion, der makrostrukturellen Anordnung von Lemmata im etymologischen Wörterbuch und die Mikrostrukturen zu relativ motivierten Lexemen.
  • Ursula Brauße beleuchtet das Problem der Darstellung und Kategorisierung von Konnektoren (Konjunktionen, Adverbien, Partikeln) im Wörterbuch. Sie gelangt zu dem Ergebnis, daß die Beschreibung dieser Wortarten in vorliegenden Wörterbuchern z.T irreführend ist. Im Rahmen der Fremdsprachenlexikographie fehlen ihrer Meinung nach hinreichende syntaktische Informationen zu Konnektoren.

Peter Kühn, Werner Hüllen, Helmut Schnelle, Peter Rolf Lutzeier, Franz-Josef Hausmann und Peter Hellwig behandeln Fragestellungen, die sich unter dem thematischen Schwerpunkt "Methodologische Aspekte" zusammenfassen lassen.

  • Dem Problem der lexikologischen Erfassung und Bestimmung der Sprachnorm sowie der normativen Wirkung normativer wie deskriptiver Wörterbücher, das zudem Aspekte der lexikologischen und lexikographischen Datenerhebung, Datenauswahl sowie der Datenpräsentation umfaßt, widmete sich Peter Kühn. Ein wesentliches Resultat seiner Überlegungen ist, daß lexikographische Normierungen so weit als möglich als solche gekennzeichnet werden sollten.
  • Werner Hüllen thematisiert mit seinem Beitrag textlinguistische Charakteristika von Wörterbuchartikeln. Er weist nach, daß ältere onomasiologische Wörterbücher (d.h. onomasiologische Wörterbücher bis zum 17. Jh.) eindeutig Texteigenschaften aufweisen.. Im Gegensatz dazu sind die Textseigenschaften der meisten modernen onomasiologischen Wörterbücher geringer ausgeprägt, da die alphabetische Anordnung der Lemmata die Etablierung eines "zusammenhängenden" Textes verhindert. Die Texteigenschaften historischer onomasiologischer Wörterbücher zielte vor allem auf mnemotechnische Effekte. Entsprechend sollte sie auch im Bereich modernen didaktischen Lexikographie konzeptionell berücksichtigt werden.
  • Peter Rolf Lutzeier macht in seinem Beitrag auf ein wenig bekanntes semantisches Phänomen aufmerksam. Er versteht unter Gegensinn eine Beziehung des Gegensatzes zwischen zwei Lesarten einer lexikalisch polysemen Einheit. Damit wendet er das Modell der Bedeutungsrelationen auf die Lesarten eines als polysem bestimmten Lemmazeichens an. Anhand von einigen Beispielen diskutiert Lutzeier Gegensinn inkompatibler, antonymer, komplementärer, konverser und reversibler Art. Lutzeier empfiehlt, daß die Beziehung des Gegensinns in Wörterbüchern zu Zwecken der Strukturierung der Sememe Berücksichtigung finden sollte und erwägt darüberhinaus die Erstellung eines Wörterbuch des Gegensinns als Ergänzung zu herkömmlichen Antonymenwörterbüchern..
  • Franz Josef Hausmann schlägt vor, die traditionelle Unterscheidung in Auto- und Synsemantika "quer" durch die Wortarten verlaufen zu lassen. Als wichtigste Konsequenz für die Zwecke der Lexikographie ergeben sich wesentliche Änderungen bei der Berücksichtigung und textuellen Präsentation der zugehörigen lexikologisch bestimmten Daten.
  • Helmut Schnelle schlägt vor, die Beziehungen zwischen lexikalischen Einheiten (Substantiven, Verben und Adjektiven) im Lexikon im Sinne einer hierarchischen Struktur logischer Implikationen zu rekonstruieren. Ausgangspunkt dieser Rekonstruktion ist eine weitergehende Reglementierung der Form von Bedeutungsangaben, wie sie von John Sinclair in Cobuild-Wörterbüchern erstmalig Verwendung fanden. Schnelle versteht die Menge der dabei erhältlichen "lexikalischen Sätze" als eine ausgezeichnete Teilmenge aller möglichen Sätze einer natürlichen Sprache.
  • Peter Hellwig schließlich behandelt Lösungsvorschläge zu dem Problem, wie lexikographische Daten, die in ihrer Präsentation und Gestaltung stark von unterschiedlichen linguistischen und speziell lexikologischen Theorien determiniert und deshalb nicht immer ohne weiteres kompatibel zueinander sind, in globalere lexikographische Konzepte eingebracht werden können. Er reflektiert die Fragen, ob es einen theorieübergreifenden lexikographischen Standard für Wissensbasen geben könne und wie dieser - speziell im Rahmen computerlinguistischer Zielsetzungen - auszusehen habe,.

Im Rahmen eines letzten thematischen Schwerpunktes behandeln Burkhard Schaeder und Clemens Knobloch, Thorsten Roelcke und Werner Wolski verschiedene Aspekte der Fachsprachenlexikographie.

3 Fazit

Die Beiträge, die in ihrer Gesamtheit einen exemplarischen und zentralen Ausschnitt von Problemen aus dem diskutierten Spannungsfeld zwischen linguistischer Theorie und lexikographischer Praxis behandeln, zeigen speziell folgendes:

Vor allem der letztgenannte Punkt ist ein wichtiges Desiderat, das darüber hinaus die anscheinend divergierenden Interessen von Linguisten und Lexikographen auf eine fruchtbare Weise zusammenzuführen vermag. Die übrigen Gesichtspunkte ergaben sich dann als Detailprobleme im Rahmen der interdisziplinären Erarbeitung einer globalen lexikologisch-lexikographischen Datenbasis.

Fußnote 1:
Die Herausgeber möchten der Deutschen Forschungsgemeinschaft danken, die das Symposium mit einem Zuschuß unterstützt hat. Einen ausführlichen Bericht über das Symposium bietet folgender Text: Matthias Kammerer: Bericht über das Symposium "Linguistische Theorie und lexikographische Praxis" vom 27. bis 28. Juni 1996 in Heidelberg. In: Lexicographica 12. 1996, 261-271. zurück zum Text




Last Update: 26. Juni 2002
© Webmaster