Bunte Farbwolke, in der David und Goliath zu sehen sind.
Verschiedenes  |  09.10.2025

Das Dilemma der KI-Allianzen: Wenn Partnerschaften den Innovationswettbewerb bedrohen

In Ihrem neuesten Paper untersuchen Josef Drexl und Daria Kim die wett­bewerbs­rechtlichen Heraus­forderun­gen der strate­gischen Partner­schaften zwischen großen Technologie­konzernen und kleineren KI-Entwicklern. Diese Allianzen versprechen Effizienz und Fort­schritt, bergen aber auch erheb­liche Wett­bewerbs­risiken – insbeson­dere für den Innovations­wettbewerb.

Bunte Farbwolke, in der David und Goliath zu sehen sind.
Big Techs und Startups: Welche Fallstricke bergen die ungleichen Partnerschaften? (Bild: Adobe Stock)

Die derzeit beeindruckendsten Leistungen in der KI-Innovation beruhen auf erheblichen Ressourcen. Große Technologiekonzerne, die sogenannten Big Techs, haben sich seit Langem erhebliche Vorteile in Bezug auf die Verfügbarkeit von Datenmengen, Rechenkapazitäten und Cloud-Infrastruktur gesichert. Zugleich sind KI-Start-ups bestrebt, innovative Konzepte und Ansätze zu realisieren und bahnbrechende KI-Modelle zu entwickeln. Das Abhängigkeitsmuster ist erkennbar – lassen sich die damit verbundenen Fallstricke vermeiden?


Kontrollproblematik

Selbst wenn Wettbewerbsbehörden Zugang zu den KI-Vereinbarungen erhalten, bleiben deren Bedingungen der breiten Öffentlichkeit größtenteils unbekannt.  Weitgehend bekannt ist aber, dass Big Techs oft kritische Ressourcen wie Rechenleistung, Daten oder finanzielle Mittel zur Verfügung stellen. Die Gefahr besteht, dass sie im Gegenzug Bedingungen durchsetzen, die sowohl die freie Wahl der Lizenzierung als auch – allgemeiner – die Innovationsmodelle der KI-Entwickler einschränken. Von besonderer Bedeutung ist, wie die aus diesen strategischen Partnerschaften entstehenden KI-Modelle verbreitet bzw. sowohl nachfolgenden Innovatoren als auch der Allgemeinheit zugänglich gemacht werden.


Die Open-Source-Lizenzierung von KI-Modellen ist seit einiger Zeit Gegenstand kontroverser Diskussionen. Einige sehen darin ein ideales Mittel zur Förderung von Innovation und Wettbewerb. Andere haben sie eher als Ablenkungsmanöver von Unternehmen betrachtet, um die eigene Position innerhalb des KI-Ökosystems zu stärken. Allerdings kann „Offenheit“ von Modellizenzen nicht automatisch und pauschal mit mehr Innovation gleichgesetzt werden. Zum einen kann Offenheit je nach Grad und Art des zugänglich gemachten Gegenstands variieren. Zum anderen kann die Offenheit von KI-Modellen unterschiedliche, teils gegensätzliche Implikationen für Innovation haben und lässt sich daher normativ nicht eindeutig bewerten; in manchen Fällen kann die Kontrolle über bestimmte Ressourcen vielmehr als legitimer Wettbewerbsvorteil gerechtfertigt sein.


Innovationswettbewerb als Entdeckungsprozess

Die traditionellen wettbewerbsrechtlichen Ansätze stoßen hier an ihre Grenzen. Zum einen ist häufig unklar, mit welcher Schadenstheorie – wenn überhaupt – sich wettbewerbliche Bedenken erfassen lassen; zum anderen ist oft ungewiss, welche Auswirkungen bestimmte Wettbewerbsstrategien in diesem dynamischen Umfeld tatsächlich auf Wettbewerb und Innovation haben. Es geht dabei nicht nur darum, einmal etablierte Monopole zu verhindern, sondern vor allem darum, Rahmenbedingungen zu schaffen, unter denen Unternehmen frei und kreativ neue Wege in der KI-Innovation einschlagen können


Die jüngsten Fälle, etwa die Partnerschaften zwischen Microsoft und OpenAI sowie zwischen Microsoft und Mistral AI, zeigen, dass die traditionellen Instrumente des Wettbewerbsrechts nicht ausreichen, um die spezifischen Risiken dieser digitalen Allianzen zu bewältigen. Gefordert ist daher ein differenzierter Analyseansatz, der gezielt auf die Bedenken hinsichtlich der Abhängigkeiten zwischen Big Tech und KI-Entwicklern eingeht. Ein vielversprechender Rahmen besteht darin, die wettbewerbsrechtliche Analyse auf dem Konzept des Innovationswettbewerbs als Entdeckungsprozess aufzubauen. Dabei gilt es vor allem, die Freiheit der KI-Entwickler zu wahren, ihre Lizenzierungsmodelle selbst zu wählen und unabhängige Innovationsstrategien ohne unangemessene Einschränkungen durch Kooperationsvereinbarungen verfolgen zu können.


Über die Anwendung des Innovationswettbewerbs als Entdeckungsprozess als leitendes Konzept der Wettbewerbsrechtsdurchsetzung hinaus, kämen zudem eine Reform des Digital Markets Act und sogar die Einführung eines neuen wettbewerbsrechtlichen Instruments in Betracht, um Wahlfreiheit und Zugang in digitalen Märkten in diesem Kontext zu fördern.


Zum Paper auf SSRN:
Josef Drexl, Daria Kim
AI Innovation Competition as a Discovery Procedure: The Role and Limits of Competition Law

Verschiedenes  |  30.09.2025

Das Internet im Umbruch: Wie wird die digitale Zukunft bestimmt?

Das Internet verändert sich grundlegend. Treibende Faktoren sind der rasche Fortschritt bei Künstlicher Intelligenz und eine Reihe neuer Regeln wie Data Act, Digital Markets Act und Digital Services Act. Diese Entwicklungen berühren den Kern unserer digitalen Gesellschaft und werfen Fragen auf.

Prof. Dr. Josef Drexl und Germán Oscar Johannsen haben im Rahmen eines humanet3-Workshops durch Videostatements Stellung bezogen.

Wer bestimmt die Regeln im Netz? Steuern bald Algorithmen die Debatte? Und welche Rolle spielen die großen Tech-Konzerne, die als unsichtbare Baumeister digitaler Räume agieren?


Was die Forschungsgruppe humanet3 untersucht


Um diesen Fragen auf den Grund zu gehen, haben sich drei Max-Planck-Institute zusammengeschlossen und die Forschungsgruppe humanet3 ins Leben gerufen. Forschende des Max-Planck-Instituts für Innovation und Wettbewerb, des Max-Planck-Instituts für Bildungsforschung und des Max-Planck-Instituts für ausländisches öffentliches Recht und Völkerrecht – genauer eine Gruppe, bestehend aus juristischen Fachleuten und Expert*innen für computergestützte Sozialwissenschaften – verfolgen ein ehrgeiziges Ziel: Sie wollen die „menschenzentrierte digitale Transformation“ digitaler Öffentlichkeiten analysieren, zerlegen und neu denken. In der soeben veröffentlichten Forschungsstrategie von humanet3 beschreibt die Gruppe Ansätze und Vorgehensweise Ihrer Arbeit.


Konkrete Projekte sollen beleuchten, wie sich Technologie, Recht und Gesellschaft gegenseitig beeinflussen:
 

  • Der Mensch im Mittelpunkt der KI: Was bedeutet es, wenn wir von einer „menschenzentrierten KI“ sprechen? Wie lässt sich dieses Ideal technisch und rechtlich umsetzen?
  • Der Mensch im globalen Recht: Wie wird „der Mensch“ in globalen Gesetzen konstruiert und welche Folgen hat das für unser Handeln im Netz?
  • Regulierung durch die EU: Inwieweit schränkt die europäische Regulierung unser Verhalten auf Social-Media-Plattformen ein? Und welche Macht haben diese Plattformen selbst, unser Verhalten zu lenken?
  • Macht für die Zivilgesellschaft: Könnte eine neue Art der Regulierung, die nicht nur den Staat, sondern auch zivilgesellschaftliche Gruppen stärkt, uns dabei helfen, die Macht von den großen Tech-Konzernen zurückzuerobern?


Die Gestaltung der digitalen Zukunft liegt in den Händen aller


Die Arbeit von humanet3 soll zeigen, dass die Gestaltung der digitalen Zukunft nicht allein den Tech-Konzernen oder den Regulierungsbehörden überlassen werden darf. Sie ist eine gesamtgesellschaftliche Aufgabe. Es geht darum, das Internet als einen Ort der freien Meinungsäußerung zu bewahren und gleichzeitig Mechanismen zu schaffen, die es vor den Herausforderungen der KI und der Machtkonzentration schützen.


Die zentrale Frage, die am Ende über allem steht, ist: Wie können wir sicherstellen, dass das Internet ein Ort bleibt, an dem der Mensch im Mittelpunkt steht und nicht als bloße Datenquelle oder Algorithmus-Futter endet? Die Forschung von humanet3 liefert wichtige Impulse, um diese Debatte zu führen. Sie erinnert uns daran, dass wir die gestaltenden Kräfte der digitalen Zukunft sein müssen und nicht bloße Mitreisende.



Digitale öffentliche Räume für die Demokratie neu denken

Statement von Josef Drexl (YouTube-Video)

Statement von Gérman Oscar Johannsen (YouTube-Video)


Zur Forschungsstrategie auf SSRN:
Erik Tuchtfeld, Germán Oscar Johannsen, Anna Sophia Tiedeke, Chaewon Yun
humanet3: The Third Attempt at a Human-Centered Internet – A Research Agenda
Max Planck Institute for Innovation & Competition Research Paper No. 25-21

Logo für die Online-Ausweisfunktion
Studie  |  16.07.2025

Digitale Identität im Praxistest – Neue Studie zur Aktivierung der eID-Funktion des Personalausweises

Wer besitzt in Deutschland eine sichere digitale Identität? Wie hoch ist die potenzielle Nutzung des elektronischen Personalausweises? Eine neue interdisziplinäre Studie des Instituts liefert nun repräsentative Zahlen zur Aktivierung der eID-Funktion des deutschen Personalausweises.

Logo für die Online-Ausweisfunktion
Logo für die Online-Ausweisfunktion

Die Ergebnisse der im Oktober 2024 durchgeführten Befragung zeigen: Nur 35% der erwachsenen deutschsprachigen Bevölkerung haben die eID-Funktion aktiviert, 6% kennen sie nicht einmal. Die höchste Aktivierungsrate findet sich in Berlin mit 54%, gefolgt von Hamburg mit 40%.


Die elektronische Ausweisfunktion (eID) wurde eingeführt, um Bürgerinnen und Bürgern eine sichere digitale Identität zu ermöglichen. Seit 2010 sind alle ausgegebenen Personalausweise und seit 2011 alle ausgegebenen elektronischen Aufenthaltstitel eID-fähig. Die Funktion muss jedoch aufwändig aktiviert werden. Dazu ist ein Gang zum Bürgeramt nötig, obwohl in anderen EU-Mitgliedsstaaten die eID des Personalausweises entweder automatisch aktiv ist (zum Beispiel in Estland und Belgien) oder direkt an ein Bankkonto gekoppelt ist (zum Beispiel in Schweden und Finnland).


Es ist bereits bekannt, dass die Deutschen die eID bislang kaum nutzen. Das liegt jedoch nicht nur an technisch-institutionellen Hürden, sondern auch an mangelnden Anwendungsfällen und Anlässen.


Die aktuelle Studie zeigt nun auf, welche Bevölkerungsgruppen die eID aktivieren – und welche nicht. Signifikant häufiger aktiviert wird die eID unter anderem von Männern, jüngeren Menschen, Stadtbewohnern, Personen mit Abitur, Deutschen mit Migrationshintergrund und ausländischen Mitbürgern. Unter Berufstätigen stechen diejenigen mit juristischem Hintergrund oder in Verwaltungstätigkeiten hervor.


Die geringe Gesamtverbreitung der eID steht im Gegensatz zu den politischen Zielsetzungen der Bundesregierung. Die elektronische Identität ist ein zentraler Pfeiler der europäischen eIDEAS-Verordnung (EU Nr. 910/2014). Da die Verordnung ausdrücklich auf „eine nahtlose elektronische Interaktion” mit Unternehmen abzielt, droht ein Dilemma der wechselseitigen Bedingtheit: Unternehmen, die in anderen Ländern für die Mehrzahl der eID-Nutzungsmöglichkeiten stehen, haben in Deutschland kaum Anlass, die eID in ihre Dienstleistungen zu integrieren, da die Aktivierungsrate so gering ist.


Die Autoren empfehlen daher eine gezielte Ansprache von Bevölkerungsgruppen mit niedriger Aktivierungsrate, wie Frauen und älteren Menschen, sowie eine verstärkte Einbindung der Bevölkerung in die Weiterentwicklung nutzerfreundlicher digitaler Angebote. Am wichtigsten wäre jedoch der Abbau von Hürden und Hemmnissen bei der Aktivierung der eID.


Autoren der Studie sind:


Michael E. Rose, Ph.D., Senior Research Fellow
Jörg Hoffmann, Senior Research Fellow
Prof. Dietmar Harhoff, Ph.D., Direktor am Institut


Zur Publikation:


Rose, Michael E., Hoffmann, Jörg, Harhoff, Dietmar (2025). Wer hat die elektronische Ausweisfunktion aktiviert?, Wirtschaftsdienst, 105 (7), 525–528.


https://www.wirtschaftsdienst.eu/inhalt/jahr/2025/heft/7/beitrag/wer-hat-die-elektronische-ausweisfunktion-aktiviert.html

KI-generiertes Symbolbild ind gelben und blauen Farbtönen, das eine Lieferkette für Pharmaprodukte und die ukrainische und europäische Flagge zeigt.
Verschiedenes  |  02.07.2025

VolkswagenStiftung fördert wegweisendes Projekt zur Revitalisierung der ukrainischen Pharmaindustrie

Die VolkswagenStiftung fördert unser zukunfts­weisendes Projekt „From Legacy to Leadership“, dessen Ziel es ist, einen Leit­faden für den Wieder­aufbau der ukrainischen Pharma­industrie in Partnerschaft mit der EU zu entwickeln. Diese ambitionierte Initiative soll das reiche industrielle Erbe und Know-how des Landes nutzen, um die Liefer­ketten der EU zu stärken und die Wirtschaft der Ukraine anzukurbeln.

KI-generiertes Symbolbild ind gelben und blauen Farbtönen, das eine Lieferkette für Pharmaprodukte und die ukrainische und europäische Flagge zeigt.
Symbolbild: KI-generiert.

Das Projekt basiert auf einer bemerkenswerten Beobachtung: Die Ukraine war dominierender Standort der pharmazeutischen Produktion in der UdSSR und machte über 70% der gesamten sowjetischen Forschungs- und Entwicklungs- sowie Produktionskapazitäten im Pharmabereich aus. Heute liegen diese Kapazitäten noch immer „im Boden und in der Luft“. Ökonom*innen bezeichnen dieses Erbe als „industrielles Gedächtnis“ des Landes. Diese einzigartigen Fähigkeiten sind für industriepolitische Diskussionen von großer Bedeutung und unterstreichen das Potenzial der Ukraine, ihre Position als maßgeblicher Akteur in der globalen Pharmaindustrie zurückzugewinnen.


Der Wiederaufbau des ukrainischen Pharmasektors ist ein strategisches Win-win-Projekt. Ein in die EU integrierter ukrainischer Pharmasektor könnte die Widerstandsfähigkeit der Lieferketten in Europa stärken. Die COVID-19-Pandemie und geopolitische Spannungen haben die übermäßige Abhängigkeit Europas von asiatischen Arzneimittelherstellern offengelegt. Eine moderne pharmatechnische Basis in der Ukraine in unmittelbarer Nähe zur EU würde die Lieferquellen diversifizieren und in Krisenzeiten als Puffer fungieren.


Das Projekt sieht die Entwicklung eines umfassenden Leitfadens zur Unterstützung des Wiederaufbaus der ukrainischen Pharmaindustrie vor. Dieser Leitfaden wird dazu beitragen, Lücken in den Lieferketten der EU zu schließen und ein Element hoher Wertschöpfung für die ukrainische Wirtschaft zu schaffen, indem er das Wirtschaftswachstum und die Widerstandsfähigkeit des Landes fördert.


Mitglieder des Projektteams am Max-Planck-Institut für Innovation und Wettbewerb sind:


Prof. Dietmar Harhoff, Ph.D., Direktor am Institut, Prof. Dr. Nataliia Mazaraki (Leiterin der Abteilung für internationales, Zivil- und Handelsrecht an der Staatlichen Universität für Handel und Wirtschaft, Ukraine) und Prof. Dr. Liudmyla Petrenko (Abteilung für Betriebswirtschaft und Entrepreneurship an der Nationalen Wirtschaftsuniversität Kyjiw, benannt nach Vadym Hetman) sowie die Senior Research Fellows Michael E. Rose, Ph.D., und Dr. Daria Kim.


Das lokale Team wird eng mit ukrainischen Forschenden und Institutionen zusammenarbeiten, die eine wichtige Rolle bei der Gestaltung der Forschungsagenda des Projekts und der Sicherstellung seiner Relevanz für den ukrainischen Kontext spielen werden:


Oksana Kashyntseva, Ph.D. (Beraterin der Leitung des Nationalen Amtes für geistiges Eigentum der Ukraine), Yevgeniya Piddubna (Direktorin für Unternehmenskommunikation bei Farmak JSC), Olha Urazovska, Ph.D. (Stellvertretende Leiterin der Abteilung für geistiges Eigentum und Innovationen des Nationalen Amtes für geistiges Eigentum der Ukraine), Olha Omelchenko, Ph.D. (Senior Researcher am Wissenschaftlichen Forschungsinstitut für geistiges Eigentum der Nationalen Akademie der Rechtswissenschaften), Anastasia Homeniuk (Doktorandin und Junior Researcher am Wissenschaftlichen Forschungsinstitut für geistiges Eigentum der Nationalen Akademie der Rechtswissenschaften), Tetiana Pyatchanina, Ph.D. (Leiterin der Abteilung für Patent- und Lizenzaktivitäten und Informationsunterstützung am R.E. Kavetsky-Institut für experimentelle Pathologie, Onkologie und Radiobiologie der Nationalen Akademie der Wissenschaften), Yaroslav Iolkin, Ph.D. (leitender Forscher am Wissenschaftlichen Forschungsinstitut für geistiges Eigentum der Nationalen Akademie für Rechtswissenschaften) und Viktoriia Kyrylenko (Doktorandin an der Nationalen Wirtschaftsuniversität Kyjiw, benannt nach Vadym Hetman).


Durch diese Zusammenarbeit werden wir ein tieferes Verständnis für die industriellen Fähigkeiten des Landes fördern und Möglichkeiten für Wachstum und Entwicklung identifizieren.


Wir danken für die Unterstützung der VolkswagenStiftung, die damit erneut den Wert unorthodoxer Forschung und ihr Potenzial, positiven Wandel voranzutreiben, anerkennt. Die Förderung ermöglicht es dem Institut, seine ambitionierten Ziele zu verfolgen und einen bedeutenden Beitrag zur Wiederbelebung der pharmazeutischen Industrie in der Ukraine zu leisten.


Weitere Informationen zum Projekt finden Sie im Projekt-Poster (PDF).

Notebook, auf dem das Logo der Europäischen Kommission zu sehen ist. Foto:  monticellllo - stock.adobe.com
Stellungnahme  |  24.04.2025

Stellungnahme zur Überarbeitung der Technologietransfer-Gruppenfreistellungsverordnung

Das Institut hat eine Stellung­nahme zur Über­ar­bei­tung der Tech­nologie­transfer-Gruppen­freistellungs­verordnung (TT-GVO) und der beglei­tenden Leit­linien (TT-Leitlinien) ver­öffent­licht. Die Über­ar­bei­tung ist not­wendig, da die gegen­wärtige Verordnung zum 30. April 2026 ihre Geltung verliert.

Notebook, auf dem das Logo der Europäischen Kommission zu sehen ist. Foto:  monticellllo - stock.adobe.com
Foto: monticellllo - stock.adobe.com

Die Gruppen­freistellung­sverordnung für Techno­logie­transfer (TT-GVO) sieht vor, dass Artikel 101 Absatz 1 AEUV auf bestimmte Kategorien von Technologie­transfer­vereinbarungen nicht an­wend­bar ist.  Seit November 2022 betreibt die EU-Kom­mis­sion ein Überprüfungs­verfahren, das nun in die Folgen­ab­schätzungs­phase eingetreten ist. In seiner Stellungnahme konzentriert sich das Institut insbesondere auf die Fragen, die die Euro­pä­ische Kom­mis­sion in ihrer Aufforderung zur Einreichung von Beiträgen vom 31. Januar 2025 aufgeworfen hat.


Angesichts der techno­logischen Ent­wicklungen seit der Ver­ab­schie­dung der gegen­wärtig gel­tenden GVO geht die Stellung­nahme u.a. der Frage nach, ob und in welcher Weise die Lizen­zierung von Daten und Modellen der künstl­ichen Intelligenz (KI) erfasst werden sollte. In Bezug auf Daten wird empfohlen, einen vor­sich­tigen Ansatz bei der Aus­weitung des Anwen­dungs­bereichs der TT-GVO auf bestimmte Daten­kategorien und daten­bezogene Rechte zu wählen. Das Institut ist zwar der Ansicht, dass die Lizen­zierung von Daten in der Euro­päischen Union ver­bessert werden sollte, um Innovation und soziales Wohl­ergehen zu fördern – ins­be­son­dere im Zu­sammen­hang mit der Entwicklung von KI –, argumentiert aber auch, dass die TT-GVO dafür nicht den geeigneten Rahmen bietet. Vielmehr sollte über eigenständige Leit­linien nachgedacht werden, die über die Lizen­zierung von Daten hinaus über Regeln zu Artikel 102 AEUV das Datenteilen fördern sollten.


In Bezug auf die Lizenzierung von KI-Modellen wird in der Stellungnahme hervorgehoben, dass die Kommission sowohl in Bezug auf die derzeitige Anwendbarkeit der TT-GVO auf bestimmte Fälle als auch in Bezug auf die Einbeziehung von KI-Modellen Klarstellungen zum Anwendungsbereich in der GVO sowie in den Leitlinien vornehmen sollte.


Die Stellungnahme unterstützt die Ansicht der Kommission, dass die Anwendung der Marktanteilsgrenzen auf den Technologiemärkten praktische Schwierigkeiten aufwirft. Dennoch rät das Institut in seiner Stellungnahme davon ab, die Regeln der TT-GVO zu ändern. Stattdessen würde das Institut durchaus einen Übergang von einer “4plus”- zu einer “3plus”-Regel in den TT-Leitlinien unterstützen.


Die Absicht der Kommission, die Recht­sprechung zu Pay-for-Delay-Vergleichen in die TT-Leitlinien zu inte­grie­ren, wird durch die Stellung­nahme unterstützt. Konkret empfielt die Stellungnahme die Formulierung einer spezifischen Kernbeschränkung, die die Voraussetzungen für die Einstufung der Lizenzierung von Rechten als Teil von Pay-for-Delay-Vergleichen als bezweckte Beschränkung im Sinne von Art. 101 Abs. 1 AEUV explizit widerspiegelt.


Die in den TT-Leitlinien festgelegten Safe-Harbour-Kriterien für Tech­no­logie­pools werden durch die Stellung­nahme als weit­gehend zweckmäßig unterstützt. Schließlich wird in der Stellung­nahme die Empfehlung an die Kommission ausgesprochen, spezifische Leitlinien – einschließlich der Abgrenzung einer Safe-Harbour-Regelung – für die Beurteilung von Vereinbarungen über sog. Licensing Negotiation Groups (LNGs) auf Seiten der Lizenznehmer nach Artikel 101 AEUV vorzulegen.


Stellungnahme als PDF:

Position Statement of the Max Planck Institute for Innovation and Competition of 25 April 2025 in the framework of the revision of the Technology Transfer Block Exemption Regulation and the accompanying Guidelines

Deckblatt des BMWK-Gutachtens zu Bürokratieabbau und ergebnisorientiertem Verwaltungshandeln
Verschiedenes  |  12.03.2025

Wider die kafkaeske Bürokratie – Bürokratieabbau und ergebnisorientiertes Verwaltungshandeln

Der Wissenschaftliche Beirat beim Bundesministerium für Wirtschaft und Klimapolitik (BMWK) hat am 11. März 2025 ein Gutachten zum Thema „Bürokratieabbau und ergebnisorientiertes Verwaltungshandeln“ veröffentlicht, das von Dietmar Harhoff mitverfasst wurde. Das Gutachten arbeitet heraus, warum die Belastung durch Bürokratie massiv ansteigt, welche Hebel zum Bürokratieabbau im Bereich der Gesetzgebung und der Verwaltung genutzt werden sollten, und empfiehlt acht konkrete Maßnahmen.

Die Belastung durch Bürokratie hat eine neue Qualität erreicht. Sie gilt bei Unternehmen und Wirtschaftsverbänden inzwischen als größte Wachstumsbremse und wichtigstes Investitionshindernis, noch vor den hohen Energiekosten und der Belastung durch Steuern und Abgaben. Wie kann ein wirksamer Bürokratieabbau dauerhaft erreicht werden, ohne unsere rechtsstaatlichen Prinzipien zu gefährden? Es bedarf eines neuen Konzepts der Gestaltung staatlicher Normsetzung und staatlichen Handelns, um substanzielle und nachhaltige Fortschritte zu erzielen.


Der Beirat empfiehlt konkret folgende Maßnahmen:


1. Abwägung von Nutzen und bürokratischen Kosten: Bei allen Gesetzesvorhaben muss der Nutzen neuer und bestehender Regelungen mit den bürokratischen Kosten abgewogen werden. Anstatt Einzelfallgerechtigkeit durch byzantinische Bestimmungen erreichen zu wollen, sollte der Gesetzgeber auf großzügige Pauschalierung und Bagatellklauseln setzen.


2. Gesetze auf den Prüfstand stellen und Alibi-Gesetze wieder abschaffen: Bei der Verabschiedung einer Regulierung mit hohem bürokratischem Aufwand sollte klar definiert werden, welche Ziele mit der Regelung erreicht werden sollen und wie die Zielerreichung gemessen werden kann. Das Gesetz sollte nach einer vorgegebenen Frist evaluiert und bei Zielverfehlung auch wieder abgeschafft werden.


3. Verzicht auf Mikromanagement und Einführung von Ex-post-Kontrollen: Der Staat sollte nicht im Detail regeln, wie ein gesellschaftliches Ziel erreicht wird. Es genügt, die Zielgröße zu messen und Anreize für die Zielerreichung zu geben. Der Staat solle häufiger auf die Ex-ante-Kontrolle der gesetzten Normen verzichten und stattdessen stichprobenhafte Ex-post-Kontrollen so vornehmen, dass Normverletzungen im Erwartungswert nicht profitabel sind.


4. Kein Gold-Plating von EU-Rechtsregeln: Der deutsche Gesetzgeber sollte darauf verzichten, EU-Vorgaben mit weitergehenden Vorschriften zu ergänzen.


5. Ergebnisorientierung und Wettbewerb: Es sollte nicht nur der Aufwand (Input), sondern vor allem das Ergebnis des Handelns einer Behörde gemessen und mit den Ergebnissen anderer Institutionen verglichen werden.


6. Einsatz strukturierter Managementmethoden und Fachkräfteentwicklung: In der Verwaltung sollten verstärkt moderne Managementmethoden eingesetzt werden. Auch die Ausbildung von Verwaltungs­mitarbeitenden sollte weniger verfahrens- und stärker ergebnisorientiert sein. Zudem sollten sich die Verwaltung stärker für Fachkräfte mit umfassender Berufserfahrung in Wirtschaft und anderen Sektoren öffnen.


7. Weiterentwicklung der Praxischecks: Praxischecks sind ein vielversprechendes Instrument der ergebnisorientierten Bürokratiegestaltung, das weiterentwickelt werden sollte. Insbesondere sollte dieses Verfahren durch Ex-ante-Praxischecks vor der Gesetzgebung ergänzt und ressortübergreifend gestaltet werden.


8. One-Stop-Shops und Regulatory Sandboxes: Es sollten neue Formen von kooperativer Normsetzung erprobt werden. Dazu gehört die Einrichtung von One-Stop-Shops, bei denen Gesetzgeber und Behörden so zusammenarbeiten, dass komplexe Genehmigungsprozesse vollständig von einer Instanz bearbeitet werden können.


Der Wissenschaftliche Beirat berät den Bundesminister unabhängig in allen Fragen der Wirtschaftspolitik. Dietmar Harhoff ist seit 2004 Mitglied des Wissenschaftlichen Beirats beim Bundesministerium für Wirtschaft und Technologie (BMWi), jetzt Bundesministerium für Wirtschaft und Energie (BMWE).


Zur Veröffentlichung:


Wissenschaftlicher Beirat beim Bundesministerium für Wirtschaft und Klimaschutz (BMWK); Bierbrauer, Felix; Engel, Christoph; Harhoff, Dietmar; Hellwig, Martin; Janeba, Eckhard; Kübler, Dorothea; Schmidt, Klaus M.; Wambach, Achim (2025). Bürokratieabbau und ergebnisorientiertes Verwaltungshandeln. Gutachten des Wissenschaftlichen Beirats beim Bundesministerium für Wirtschaft und Klimaschutz. Berlin: Bundesministerium für Wirtschaft und Klimaschutz.


https://www.bundeswirtschaftsministerium.de/Redaktion/DE/Publikationen/Ministerium/Veroeffentlichung-Wissenschaftlicher-Beirat/gutachten-buerokratieabbau.pdf

Abholzung von Wäldern
Studie  |  14.11.2024

Klimawirkung von Kompensationszertifikaten wird erheblich überbewertet

Die Emissionsminderungen aus Klimaschutzprojekten sind deutlich niedriger als angegeben. Das zeigt eine neue Metastudie, die nun im Fach­journal Nature Communications erschienen ist. Dafür hat Benedict Probst, Leiter des Net Zero Lab am Institut, über 60 empirische Studien systematisch ausgewertet. Das Ergebnis: Es gibt große Mängel bei der Qualität von Kompen­sations­zertifikaten.

Abholzung von Wäldern
Foto: Adobe Stock

Kohlenstoffmärkte spielen eine wichtige Rolle in den Klimastrategien von Unternehmen und Staaten. Sie ermöglichen den Kauf und Verkauf von Emissionsgutschriften. Diese Gutschriften repräsentieren eine bestimmte Menge an Kohlenstoffemissionen (CO2), die durch Umweltprojekte, wie Waldschutz oder die Vernichtung schädlicher Gase, reduziert oder vermieden wurden. Solche Gutschriften sind wichtig, weil sie Unternehmen und Staaten helfen, ihre Klimaziele zu erreichen, indem sie einen Teil ihrer eigenen Emissionen ausgleichen.

Das Problem

Die große Frage ist, ob diese Emissionsgutschriften wirkliche Emissionsreduzierungen widerspiegeln oder ob sie nur eine Scheinwirkung haben. Helfen diese Projekte tatsächlich der Umwelt oder zahlen wir für etwas, das keinen wirklichen Nutzen bringt? Kohlenstoffmarktprogramme ermöglichen es Projektentwicklern, durch Emissionsminderungsprojekte Kohlenstoffgutschriften zu erzielen. In mehreren Studien wurden jedoch Bedenken hinsichtlich der Umweltintegrität geäußert. Bisher fehlte eine systematische Bewertung.

Die neue Studie und die Ergebnisse

Die in Nature Communications erschienene neue Metastudie fasst nun 14 Studien über 2.346 Klimaschutzprojekte und 51 Studien über ähnliche Maßnahmen zusammen, für die keine Emissionsgutschriften ausgegeben wurden. Alle betrachteten Studien stützen sich auf experimentelle Methoden oder strenge Beobachtungsmethoden. Die Analyse deckt damit ein Fünftel der bisher ausgegebenen Emissionsgutschriften ab, was fast einer Milliarde Tonnen CO2-Emissionen entspricht.

Die Ergebnisse der Analyse zeigen, dass weniger als 16 % der für die untersuchten Projekte ausgestellten Emissionsgutschriften eine tatsächliche Emissionsreduzierung darstellten. Konkrete Beispiele hierfür sind:
 

  • Bei Kochherdprojekten, bei denen herkömmliche Herde durch sauberere ersetzt werden, entsprachen die tatsächlichen Emissionsminderungen nur 11 % der ausgegebenen Emissionsgutschriften.
  • Bei der Reduktion des starken Treibhausgases SF6 erreichten die tatsächlichen Emissionsminderungen nur 16 % der ausgegeben Emissionsgutschriften.
  • Die Vermeidung der Abholzung von Wäldern kam auf einen Wert von 25 %.
  • Die Verringerung des schädlichen Gases HFC-23 schnitt mit einem Wert von 68 % vergleichsweise gut ab.

Bezüglich der Windenergie zeigen die Daten, dass die Projekte vermutlich auch ohne den Verkauf von Emissionsgutschriften umgesetzt worden wären und dass somit die Ausgabe der Gutschriften zu keinem zusätzlichen Klimaschutz geführt hat. Auch verbesserte Waldbewirtschaftung wurde in Referenzregionen ohne Zugang zu Emissionsgutschriften im gleichen Maße umgesetzt wie auf Flächen, die von Emissionsgutschriften profitiert haben.

Bei Projekten zur Vermeidung der Treibhausgase Trifluormethan (HFKW-23) und Schwefelhexafluorid (SF6) in der Industrie zeigen die Daten aber, dass ab dem Zeitpunkt, ab dem die Anlagen Zertifikate für Emissionsminderungen erhalten konnten, mehr Treibhausgase produziert wurden.

Bessere Regeln für Ausgabe von Zertifikaten dringend nötig

Dr. Benedict Probst, Leiter des Net Zero Lab und Senior Research Fellow am Max-Planck-Institut für Innovation und Wettbewerb betont: „Es müssen dringend bessere Regeln für die Ausgabe von Emissionsgutschriften geschaffen werden. Alle Klimaschutzprojekttypen weisen systematische Qualitätsprobleme auf. Bei der Quantifizierung der Emissionsminderungen sollte unbedingt nachgebessert werden.“

Koautor Dr. Lambert Schneider vom Öko-Institut in Berlin verweist darauf, dass es zu viele Spielräume bei der Berechnung von Emissionsminderungen gibt: „Die Regeln der Kohlenstoffmarktprogramme räumen den Projektentwicklern oft zu viel Flexibilität ein. Das kann dazu führen, dass unrealistische Annahmen getroffen oder ungenaue Daten verwendet werden, die zu einer Überschätzung der Reduktionen führen.“

Um die Qualität der Zertifikate zu verbessern, seien vor allem die Kohlenstoffmarktprogramme in der Pflicht, betonen die Autoren. Sie sollten ihre Ansätze zur Prüfung von Projekten und der Berechnung von Emissionsminderungen verbessern. Zentral sei dabei, dass konservativere Annahmen getroffen werden und die neuesten wissenschaftlichen Erkenntnisse als Grundlage dienen.

Die gesellschaftliche Bedeutung der Studie

Die großen Klimaziele sind in Gefahr: Wenn Emissionsgutschriften nicht zu einer echten Emissionsreduzierung führen, machen wir im Kampf gegen den Klimawandel nicht die Fortschritte, die wir zu erzielen glauben.

Wir riskieren ein Vertrauensproblem: Regierungen und Unternehmen verlassen sich auf Emissionsgutschriften, um ihre Klimazusagen zu erfüllen. Wenn diese Gutschriften nicht wirksam sind, könnte dies das Vertrauen in die Kohlenstoffmärkte untergraben, die als ein wichtiges Instrument zur Bekämpfung der globalen Erwärmung gelten.

Potenzielles Greenwashing muss vermieden werden: Einige Unternehmen könnten unwirksame Emissionsgutschriften nutzen, um zu behaupten, sie seien „klimaneutral“, ohne ihre Emissionen tatsächlich zu reduzieren, und damit Verbraucher und Regulierungsbehörden in die Irre führen.

Das Fazit

Die Studie zeigt, dass Kohlenstoffmärkte nicht die Wirkung erzielen, die sie sollen und die wir dringend brauchen. Es gibt Reformbedarf. Um wirklich etwas zu bewirken, müssen die Systeme für Emissionsgutschriften grundlegend geändert werden, um sicherzustellen, dass sie tatsächlich zur Eindämmung des Klimawandels beitragen. Wenn wir diese Systeme nicht reformieren, laufen wir Gefahr, die Klimaziele zu verfehlen und Unternehmen dabei zu erlauben, sich umweltfreundlicher zu geben, als sie tatsächlich sind.

Über das Net Zero Lab


Der Umweltökonom Benedict Probst leitet seit Mai 2024 eine unabhängige Max-Planck-Forschungs­gruppe am Max-Planck-Institut für Innovation und Wettbewerb in München. Ziel des Net Zero Lab ist, die Entwicklung von grünen Technologien zu beschleunigen, die für den Ersatz fossiler Brennstoffe in der Industrie entscheidend sind, sowie von Technologien, die CO2 direkt aus der Luft entfernen.


Zum Net Zero Lab: https://www.netzerolab.science/

Direkt zur Studie:

Probst, Benedict S., et al. (2024). Systematic assessment of the achieved emission reductions of carbon crediting projects, Nature Communications, 15, 9562. Verfügbar unter https://doi.org/10.1038/s41467-024-53645-z


Alle Daten in filterbaren Grafiken: https://www.carboncredits.fyi/


Weitere an der Studie beteiligte Wissenschaftler*innen und Institutionen:

Malte Toetzke (1,4), Andreas Kontoleon (3), Laura Díaz Anadón (3,5), Jan C. Minx (6,7), Barbara K. Haya (8), Philipp A. Trotter (10,11), Thales A.P. West (3,12), Annelise Gill-Wiehl (13), Volker H. Hoffmann (2)


(1) Net Zero Lab, Max Planck Institute for Innovation and Competition, (2) Group for Sustainability and Technology, ETH Zurich, (3) Department of Land Economy, Centre for Environment, Energy, and Natural Resource Governance, University of Cambridge, (4) Public Policy for the Green Transition, Technical University of Munich, (5) Harvard Kennedy School, Harvard University, (6) Mercator Research Institute on Global Commons and Climate Change, (7) Priestley International Centre for Climate, School of Earth and Environment, (8) Goldman School of Public Policy, University of California, Berkeley, (9) Oeko-Institut, Berlin, (10) Schumpeter School of Business and Economics, University of Wuppertal, (11) Smith School of Enterprise and the Environment, University of Oxford, (12) Institute for Environmental Studies (IVM), Vrije Universiteit Amsterdam, (13) Energy & Resources Group, University of California, Berkeley.

Symbolbild für ein Modell maschinellen Lernens, das Patentdokumente nach Ähnlichkeiten durchsucht
Studie  |  10.10.2024

NBER-Studie bestätigt starke Performance des vom Institut entwickelten PaECTER-Modells zur Patentanalyse

Eine kürzlich vom National Bureau of Economic Research (NBER) veröffentlichte Studie bestätigt die starke Leistung von PaECTER, einem Patentanalysemodell, das von einem Forschungsteam am Max-Planck-Institut für Innovation und Wettbewerb entwickelt wurde. Das Modell lag in einem Vergleich mit anderen Modellen bei Aufgaben, die für die Patentprüfung und Innovationsforschung von wesentlicher Bedeutung sind, an der Spitze.

PaECTER (Patent-Level Representation Learning Using Citation-Informed Transformers) wurde von Mainak Ghosh, Sebastian Erhardt, Michael E. Rose, Erik Buunk und Dietmar Harhoff entwickelt und nutzt fortschrittliche transformer-gestützte Techniken maschinellen Lernens, die mit Patent­zitations­daten trainiert wurden. Das Modell wurde speziell entwickelt, um die komplexen Herausforderungen der Analyse von Patenttexten zu meistern, und bietet erhebliche Verbesserungen bei der Identifizierung und Kategorisierung ähnlicher Patente, was es sowohl für die Patentprüfung als auch Innovationsforschung besonders wertvoll macht.


Das neue NBER-Arbeitspapier „Patent Text and Long-Run Innovation Dynamics: The Critical Role of Model Selection“ vergleicht PaECTER eingehend mit anderen Sprach­verarbei­tungs­modellen (NLP-Modellen). Die Autor*innen Ina Ganguli (University of Massachusetts Amherst), Jeffrey Lin (Federal Reserve Bank of Philadelphia), Vitaly Meursault (Federal Reserve Bank of Philadelphia) und Nicholas Reynolds (University of Essex) wogen die Leistungen der Modelle bei Patentinterferenz-Aufgaben ab, wo mehrere Erfinder Patentansprüche für ähnliche Erfindungen erheben.


Die Studie kam zu dem Schluss, dass PaECTER im Vergleich zu herkömmlichen Modellen wie TF-IDF (Term Frequency – Inverse Document Frequency: ein Maß zur Bewertung der Relevanz eines Wortes in einem Dokument innerhalb einer Sammlung von Dokumenten) die Zahl falsch-positiver Ergebnisse erheblich reduziert und die Effizienz steigert. Die Studie zeigte auch die Fähigkeiten von PaECTER im Vergleich zu anderen modernen Modellen wie GTE und S-BERT (Generalized Text Embedding und Sentence-BERT als Methoden zur Repräsentation von Texten in Form von numerischen Vektoren, die semantische Informationen über Wörter oder ganze Sätze erfassen). Während PaECTER bei expertengesteuerten Aufgaben wie der Identifizierung von Interferenzen außerordentlich gut abschnitt, behauptete es sich auch bei allgemeineren Aufgaben der Patentklassifizierung, was seine vielseitige Einsetzbarkeit weiter unterstreicht.


„Wir freuen uns, dass die Leistung von PaECTER durch die NBER-Studie validiert wurde, die seine Stärken bei der Patentähnlichkeitsanalyse aufzeigt und seine Rolle als zuverlässiges Werkzeug für alle, die im Bereich Innovation und geistiges Eigentum arbeiten, bestätigt“, sagt Mainak Ghosh, einer der Entwickler von PaECTER. „Diese unabhängige Validierung bestärkt seine Relevanz im Bereich der Patentprüfung.“


Das PaECTER-Modell ist auf der Plattform Hugging Face verfügbar und damit für Forschende, politische Entscheidungsträger*innen und Patentfachleute weltweit zugänglich. Seine robuste Performance, wie in der NBER-Studie nachgewiesen, unterstreicht seinen Wert im Hinblick auf eine verbesserte Verarbeitung von Patentdaten und trägt zu einer genaueren und effizienteren Analyse von Patentinnovationen über die Zeit bei. Bisher wurde PaECTER mehr als 1,4 Millionen Mal heruntergeladen. 


Mehr Infos:


PaECTER auf Hugging Face


Ganguli, Ina; Lin, Jeffery; Meursault, Vitaly; Reynolds, Nicholas F. (2024). Patent Text and Long-Run Innovation Dynamics: The Critical Role of Model Selection (No. w32934). National Bureau of Economic Research. Verfügbar unter https://www.nber.org/papers/w32934


Ghosh, Mainak; Erhardt, Sebastian; Rose, Michael; Buunk, Erik; Harhoff, Dietmar (2024). PaECTER: Patent-Level Representation Learning Using Citation-Informed Transformers, arXiv preprint 2402.19411. Verfügbar unter https://arxiv.org/abs/2402.19411

UNO-Gebäude in Wien
Verschiedenes  |  09.10.2024

Vereinfachung von automatisierten Vertragsabschlüssen durch UN-Modellgesetz

UNCITRAL, die Kommission der Vereinten Nationen für internationales Handelsrecht, hat ein Modellgesetz vorgelegt, das automatisierte Vertragsabschlüsse auf elektronischem Weg international vereinheitlichen und erleichtern soll. Jörg Hoffmann, Wissenschaftler am Institut, hat als Mitglied der Arbeitsgruppe Elektronischer Geschäftsverkehr in mehreren Diskussionsrunden an der Ausarbeitung des Gesetzes mitgewirkt.

Sitzungssaal bei den Vereinten Nationen in Wien mit MPI-Aufsteller
Sitzungssaal bei den Vereinten Nationen. Foto: Jörg Hoffmann
UNO-Gebäude in Wien
UNO-Gebäude in Wien. Foto: Jörg Hoffmann

Das Institut ist aufgrund seines Forschungsschwerpunktes im Bereich der Künstlichen Intelligenz (KI) von der UNCITRAL offiziell anerkannt. Dabei half der technologiespezifische Forschungs­ansatz, den das Institut vor allem in Schaffungs- und Kreations­prozessen im IP-Bereich genauer verfolgt, in den Vorarbeiten und in der finalen Fassung, die von der UNCITRAL-Kommission diesen Sommer in New York auf ihrer 57. Sitzung angenommen wurde.


Das Modellgesetz bietet einen rechtlichen Rahmen für die Nutzung von Automatisierung in grenzüberschreitenden Verträgen, einschließlich der Nutzung von KI-Technologien und “Smart Contracts”, sowie für automatisierte Transaktionen zwischen Maschinen. Es soll bestehende Gesetze zu elektronischen Ver­trags­schlüssen ergänzen und vervollständigen, insbesondere solche, die auf anderen UNCITRAL-Texten zum elektronischen Geschäftsverkehr basieren. Diese wurden bereits in über hundert Rechtsordnungen weltweit verabschiedet. Das Modellgesetz ist der erste Rechtsakt, der aus den UNCITRAL-Sondierungsarbeiten zu Rechtsfragen der digitalen Wirtschaft und des digitalen Handels hervorgegangen ist. Es soll bestehende Rechtsunsicherheiten und Transaktionskosten minimieren um dadurch KI-getriebene Inno­vationen zu fördern. Die Arbeiten zu Datenverträgen und zur Distributed-Ledger-Technologie (Blockchain) schreiten dabei weiter voran.


Über UNCITRAL
Die Kommission der Vereinten Nationen für internationales Handelsrecht (UNCITRAL) ist das zentrale Rechtsorgan des Systems der Vereinten Nationen im Bereich des internationalen Handelsrechts. Ihr Mandat besteht darin, rechtliche Hindernisse für den internationalen Handel durch die schrittweise Modernisierung und Harmonisierung des Handelsrechts zu beseitigen. Sie er­ar­beitet Rechtstexte in Schlüsselbereichen wie Insolvenz, Beilegung von Handelsstreitigkeiten, elektronischer Handel, internationaler Zahlungsverkehr, Warenverkauf, Transportrecht, öffentliches Beschaffungswesen und Infrastrukturentwicklung.
 

Pressemitteilung der UNCITRAL
Dokumente der UNCITRAL Arbeitsgruppe Electronic Commerce

Ausschnitt des Deckblatts der Zeitschrift Science vom 13. September 2024
Studie  |  16.09.2024

Open Access prägt die wissenschaftliche Kommunikation

Open Access (OA) stellt einen grundlegenden Wandel im wissenschaftlichen Publikationswesen dar und zielt darauf ab, den uneingeschränkten Zugang zu mit Steuergeldern finanzierter Forschung und Daten zu gewährleisten. Mit einer neuen in Science publizierten Studie leisten Frank Mueller-Langer, Affiliated Research Fellow am Institut und Professor an der Universität der Bundeswehr München, und Mark McCabe, Professor an der SKEMA Business School, einen wichtigen Beitrag zum Diskurs über OA, indem sie die wirtschaftlichen, politischen und institutionellen Dynamiken analysieren, die den Wandel des wissenschaftlichen Publizierens bestimmen.

Ausschnitt des Deckblatts der Zeitschrift Science vom 13. September 2024
Deckblatt der Zeitschrift Science vom 13. September 2024

Die Open-Access-Bewegung strebt an, finanzielle Barrieren für den Zugang zu wissenschaftlichen Erkenntnissen abzubauen. Das wird unterstützt durch internationale Richtlinien wie die Berliner Erklärung (2003) und Initiativen wie die US-amerikanische White House Directive (2022). Bis 2025 müssen alle öffentlich geförderten US-amerikanischen Forschungsergebnisse kostenfrei und ohne Verzögerung zugänglich sein – ein Zeichen für die wachsende globale Bedeutung von OA.


Auswirkungen auf Forschende und Institutionen


Für Forschende ist die Veröffentlichung in renommierten, hochrangigen Fachzeitschriften entscheidend für ihre Karriereentwicklung. Historisch gesehen trugen Universitätsbibliotheken die Kosten für den Zugang zu Forschungsliteratur, was zu drastischen Preiserhöhungen führte – bekannt als „Zeitschriftenkrise“. OA versucht, diese Herausforderungen durch Modelle wie “Gold Open Access” (finanziert durch Artikelbearbeitungsgebühren – sog. APCs) und transformative Vereinbarungen (“Transformative Agreements” – sog. TAs) zu lösen, indem Kosten vom Lesen auf das Publizieren verlagert werden.


Doch die Diskussion ist kontrovers. Kritiker befürchten, dass APC-basierte Systeme die Qualität der Forschung gefährden könnten, indem sie Masse über Klasse stellen. Während OA zwar die Sichtbarkeit und Downloadzahlen erhöht, bleibt der Einfluss auf Zitationsmetriken hingegen moderat. Derweil versuchen transformative Vereinbarungen zwischen Verlagen und Institutionen, Kosten zu begrenzen, zeigen jedoch unterschiedliche Erfolge bei der Förderung von Wettbewerb und Transparenz.


Umfassende Analyse der Auswirkungen von Open Access


Die Autoren untersuchen nun, wie OA-Richtlinien, insbesondere TAs, die Dynamik zwischen Forschenden, Verlagen und Institutionen verändern. Sie heben hervor, dass OA die Sichtbarkeit wissenschaftlicher Arbeiten erhöht, jedoch auch neue Herausforderungen mit sich bringt, wie z.B. die potenziellen Auswirkungen auf die Qualität von Forschung durch APC-basierte Modelle.


Evaluation von Transformative Agreements (TAs)


Ein wesentlicher Fokus liegt auf TAs, bei denen Institutionen Abonnementkosten durch OA-Gebühren ersetzen. Die Autoren analysieren diese Vereinbarungen in Bezug auf ihre Effektivität und Anreizstrukturen, wobei sie aufzeigen, dass viele TAs (außer in Ausnahmefällen wie bei der University of California) keine ausreichenden Mechanismen enthalten, um Kosten effektiv zu kontrollieren.


Betonung von Marktstrukturen und Wettbewerb


Die Studie verdeutlicht, dass der Übergang zu OA sowohl Chancen als auch Risiken für den Wettbewerb zwischen Verlagen birgt. Während APC-basiertes OA theoretisch den Wettbewerb um Einreichungen von wissenschaftlichen Aufsätzen zwischen Verlagen durch sog. Single-Homing-Entscheidungen von Autor*innen verstärken könnte, warnen die Autoren vor der Gefahr, dass OA “Big Deals”, bei denen eine oder mehrere Universitäten und ein einzelner Verlag die APCs für die Veröffentlichung in den Zeitschriften des Verlags aushandeln, die Marktstruktur weiter konzentrieren und Innovation hemmen könnten.


Verknüpfung von Publikationen und Datenanalyse


Die Autoren zeigen auf, wie große Verlage wie Elsevier zunehmend Datenanalyse-Tools in ihr Geschäftsmodell integrieren, was zu einer stärkeren Marktstellung führen könnte. Diese Entwicklung wird kritisch reflektiert, da sie die Unabhängigkeit und den Wettbewerb im Bereich der wissenschaftlichen Datenanalyse beeinflussen könnte.


Politische Empfehlungen und Vorschläge für evidenzbasierte Experimente


Mueller-Langer und McCabe plädieren dafür, politische Maßnahmen wie die US-amerikanische White House Office of Science and Technology Policy (OSTP)-Initiative durch experimentelle Ansätze zu begleiten. Dies könnte dazu beitragen, die Effekte neuer Finanzierungs- und Publikationsmodelle besser zu verstehen und fundierte Richtlinien zu entwickeln.


Fazit


Die Autoren liefern wertvolle Einsichten darüber, wie OA-Strategien das Gleichgewicht zwischen Publikationskosten, Forschungszugang und Qualität beeinflussen könnten. Ihr Artikel unterstreicht die Notwendigkeit einer genauen Beobachtung und Evaluierung der Marktmechanismen, um langfristig eine nachhaltige und wettbewerbsfähige wissenschaftliche Kommunikationslandschaft zu gewährleisten.


Direkt zur Studie:

McCabe, Mark J.; Mueller-Langer, Frank (2024). Open Access Is Shaping Scientific Communication – Funders and Publishers Should Roll Out Policies in Ways to Support Their Evaluation, Science, 385 (6714), 1170-1172. Verfügbar unter https://doi.org/10.1126/science.adp8882