Verschiedenes  |  04.05.2022

EPA-Förderung für Deep Learning-Projekt zu Wissensflüssen zwischen Wissenschaft und Technologie

Im Rahmen des Academic Research Programme des Europäischen Patentamtes hat ein Forschungsteam der Abteilung Innovation and Entrepreneurship Research für ein Projekt, in dem mittels Deep Learning Wissensflüsse zwischen Wissenschaft und Technologie untersucht werden sollen, eine erhebliche Fördersumme erhalten.

Das Europäische Patentamt (EPA) würdigt die Bedeutung qualitativ hochwertiger Forschung zu patentbezogenen Fragen des geistigen Eigentums als Informationsgrundlage für politische Entscheidungsträger sowie um fundierte Geschäftsentscheidungen in einem Kontext zu erleichtern, in dem immaterielle Vermögenswerte, Innovation und geistige Eigentumsrechte eine zentrale wirtschaftliche Rolle spielen. Mit dem 2017 gestarteten Akademischen Forschungsprogramm (EPA-ARP) will das EPA insbesondere die akademische Forschung im Bereich des geistigen Eigentums fördern und die Verbreitung von Forschungsergebnissen unterstützen.


Um eine effektive Forschungszusammenarbeit zu ermöglichen, fördert das EPA Kooperationsprojekte, bei denen wissenschaftliche Partnerinstitutionen zusammen an umfangreicheren Projekten mit größerem Budget und längerer Laufzeit arbeiten und potenziell verschiedene Abteilungen des EPA mitwirken können. Das aktuelle EPA-ARP umfasst zwei Schwerpunktbereiche: “The New Frontiers of Innovation” und “Digital Technologies for IP”. Von 36 Projektvorschlägen, die beim EPA eingereicht wurden, erhielten nur fünf einen Förder­bescheid. Geförderte erhalten bis zu 150.000 Euro für ihre Projekte.


Im Rahmen des ersten Förderschwerpunkts und des Forschungsbereichs “From University Research to Innovation Ecosystems” hat eine Forschungsgruppe um Dietmar Harhoff, mit Sebastian Erhardt, Michael E. Rose, Mainak Ghosh und Erik Buunk nun eine erhebliche Fördersumme für das Projekt “Tracing the Flow of Knowledge from Science to Technology Using Deep Learning” erhalten.


Das Team will die semantische Ähnlichkeit zwischen Patenten und wissenschaftlichen Veröffentlichungen mithilfe der neuesten Fortschritte im Bereich des maschinellen Lernens nutzbar zu machen. Die Lösung nutzt Transformer-Modelle, die semantisch ähnliche Dokumente identifizieren. Ein Patent, das einer früheren wissenschaftlichen Veröffentlichung sehr ähnlich ist, ist möglicherweise durch diese beeinflusst worden. Der Ansatz ist skalierbar und in der Lage, große Textmengen zu verarbeiten. Sobald die Dokumente semantisch miteinander verknüpft sind, werden die Daten verwendet, um Rückschlüsse auf die Verbreitung von Wissen aus der Wissenschaft in Veröffentlichungen sowie in Patente und unter Patenten zu ziehen.


Auf der Grundlage der durch diesen Ansatz gewonnenen Informationen wird das Team in der Lage sein, eine vollständige Wissenslandschaft anzulegen, um die Bedeutung von Grundlagenforschung für neue Technologien zu ermitteln.

Studie  |  01.05.2022

Ruled by Robots – Wie nehmen Menschen maschinengestützte Entscheidungen wahr?

Algorithmen und Künstliche Intelligenz (KI) sind zu einem integralen Teil von Entscheidungs­prozessen geworden. Würden Menschen moralische Entscheidungen, die sie betreffen, lieber von einem Menschen oder einem Algorithmus treffen lassen? In einer neuen Studie wurden diese und weitere Fragen in einem Laborexperiment untersucht.

Da technologiegestützte Entscheidungsfindung immer weiter verbreitet ist, ist es wichtig zu verstehen, wie die algorithmische Natur des Entscheidungsträgers sich darauf auswirkt, wie Betroffene solche Entscheidungen wahrnehmen. Die Anwendung algorithmischer Hilfsverfahren reicht von Vorhersage­entscheidungen, z.B. wen man einstellen und welches Gehalt man anbieten soll, bis hin zu moralischen Entscheidungen, für die es keine objektiv richtige Lösung gibt, z.B. wie ein Bonus innerhalb eines Teams gerecht verteilt werden soll.


Marina Chugunova und Wolfgang J. Luhan (University of Portsmouth) studieren in einem Laborexperiment die Präferenz für menschliche oder algorithmische Entscheidungsträger bei Umverteilungsentscheidungen. Umverteilungsentscheidungen können als eine Art moralischer Entscheidungen betrachtet werden, bei denen die Definition von richtig oder gerecht von den persönlichen Idealen und Überzeugungen des Betrachters abhängt. Das Autorenteam untersucht insbesondere, ob algorithmische Entscheidungsträger aufgrund ihrer Unvoreingenommenheit bevorzugt werden. Die Frage, welche Art von Entscheidungsträger bevorzugt wird und wessen Entscheidungen als fairer empfunden werden, kann die Akzeptanz von Entscheidungen oder politischen Maßnahmen und damit auch die Zustimmung dazu verbessern.


Das Experiment


Das Hauptziel des Experiments bestand darin, eine Situation zu schaffen, in der die Präferenz der Teilnehmenden für einen menschlichen oder algorithmischen Entscheidungsträger bei einer Einkommensumverteilung beobachtbar war. Zunächst verdienten die Versuchspersonen ihr Starteinkommen individuell, indem sie drei Aufgaben erfüllten. Diese drei Aufgaben bildeten drei potenzielle Determinanten des Einkommenserwerbs nach, die in den wichtigsten Fairness-Theorien eine zentrale Rolle spielen: Glück, Anstrengung und Talent. Anschließend wurden die Versuchspersonen zu Paaren zusammengestellt und mussten einen Entscheidungsträger wählen: entweder den Algorithmus oder eine dritte Person. Der Entscheidungsträger bestimmte, wie das Gesamteinkommen des Paares zwischen den beiden Partnern umverteilt werden sollte. Um die Rolle der Voreingenommenheit zu testen, wurde für den menschlichen Entscheidungsträger eine laborinduzierte Quelle potenzieller Diskriminierung eingeführt. Anschließend bekamen die Teilnehmenden die Entscheidung mitgeteilt und mussten angeben, wie zufrieden sie mit einer bestimmten Umverteilungs­entscheidung waren und wie fair sie diese bewerteten.


Die Ergebnisse


Im Gegensatz zu früheren Studien stellte das Autorenteam fest, dass die Mehrheit der Teilnehmenden – mit über 60% – den Algorithmus als Entscheidungsträger einem Menschen vorzieht. Dies ist jedoch nicht auf Bedenken über voreingenommene menschliche Entscheidungen zurückzuführen. Trotz der Präferenz für algorithmische Entscheidungsträger werden die von Menschen getroffenen Entscheidungen positiver bewertet. Die subjektive Bewertung von Entscheidungen wird vor allem durch eigene materielle Interessen und Fairnessideale bestimmt. Was die Fairnessideale betrifft, zeigen die Versuchspersonen im Experiment eine bemerkenswerte Flexibilität: Sie tolerieren jede erklärbare Abweichung zwischen der tatsächlichen Entscheidung und ihren eigenen Idealen. Sie sind zufrieden und halten jede Umverteilungsentscheidung, die Fairnessprinzipen folgt, für gerecht, auch wenn sie nicht mit ihren eigenen Prinzipien übereinstimmt. Sie reagieren aber sehr stark und negativ auf Umverteilungs­entscheidungen, die mit keinerlei Fairnessidealen erklärbar sind.


Die Schlussfolgerungen


Die Ergebnisse der Studie deuten darauf hin, dass selbst im Bereich moralischer Entscheidungen algorithmische Entscheidungsträger menschlichen Entscheidungsträgern vorgezogen werden könnten, wobei die tatsächliche Leistung des Algorithmus eine wichtige Rolle bei der Bewertung der Entscheidungen spielt. Um „den Erwartungen gerecht zu werden” und die Akzeptanz von KI-Entscheidungen zu erhöhen, muss der Algorithmus konsequent und kohärent Fairnessprinzipien anwenden.


Direkt zu Publikation der Studie:


Marina Chugunova, Wolfgang J. Luhan
Ruled by Robots: Preference for Algorithmic Decision Makers and Perceptions of Their Choices
Max Planck Institute for Innovation & Competition Research Paper No. 22-04

Dr. Heiko Richter, LL.M. (Columbia)
Verschiedenes  |  25.03.2022

Digital Markets Act: Neue Spielregeln für Tech-Riesen

Am 24. März 2022 haben sich die Gremien der Europäischen Union auf den neuen Digital Markets Act vorläufig geeinigt. Damit will die EU die Marktmacht von Tech-Giganten wie Google, Apple, Facebook/Meta, Amazon oder Microsoft begrenzen und den Wettbewerb im europäischen Markt schützen. Im Interview erklärt Heiko Richter, wissenschaftlicher Referent am Institut, Ziele und mögliche Schwächen der neuen Verordnung.

Dr. Heiko Richter, LL.M. (Columbia)
Heiko Richter, Wissenschaftlicher Referent am Max-Planck-Institut für Innovation und Wettbewerb

Die Idee, die Macht digitaler Giganten einzuschränken, ist nicht neu. Regeln, die den Missbrauch der marktbeherrschenden Stellung oder unlautere Geschäftspraktiken ahnden, gibt es bereits. Was soll sich ändern?


Der Digital Markets Act, kurz DMA gibt einen EU-weit einheitlichen Rechtsrahmen für digitale Märkte vor, um proaktiv Wettbewerbsverzerrungen zu verhindern und bestimmte Geschäftspraktiken zu unterbinden. Ziel ist es auch, die Rechtsanwendung zu erleichtern und das Verfahren zu beschleunigen.


Wieso sind die bisherigen Regeln nicht ausreichend?


Bislang haben wir vor allem im Kartellrecht nur ex-post-Regeln: diese greifen erst, nachdem ein Verstoß vorliegt oder vermutet wird. Das hat zur Folge, dass es sehr lange dauert, bis es zu einer Sanktionierung des Verhaltens kommt. Zum Teil liegen die in Streit stehenden Handlungen bis zu zehn Jahre zurück und die Verfahren sind immer noch nicht abgeschlossen. Das Kartellrecht ist also im Ergebnis zu langsam, da es reaktiv greift.


Was soll sich ändern?

Die Grundidee des DMA als neue Verordnung ist die Regulierung vorab. Der DMA soll besonders großen Plattformdiensten Verhaltenspflichten auferlegen. Hierfür enthält er über ein Dutzend Ge- und Verbote, die mal mehr mal weniger konkret formuliert sind und von vornherein durch diese Dienste zu beachten sind. Andernfalls drohen empfindliche Sanktionen – so kann die Kommission den Plattformdiensten bei Verstößen Strafen in Höhe von bis zu 20 Prozent ihres weltweiten Jahresumsatzes auferlegen.


Zu den neuen Regeln kommen wir gleich. Aber erstmal: Für wen gilt die Verordnung?

Laut der ersten Pressemitteilung des Europäischen Rats soll ein Plattformdienst als „Gatekeeper“ gelten, wenn das Unternehmen, zu dem der Dienst gehört, mehr als 7,5 Milliarden Euro Jahresumsatz in der EU erwirtschaftet oder einen Marktwert von über 75 Milliarden Euro aufweist. Außerdem muss der Dienst über 45 Millionen Endnutzer pro Monat sowie 10.000 gewerbliche Nutzer in der EU pro Jahr zählen – und zwar in den vergangenen drei Jahren.


Dazu kommt, dass die Plattform einen oder mehrere zentrale Plattformdienste in mindestens drei EU-Mitgliedsstaaten anbieten muss. Zu solchen Diensten zählen etwa soziale Netzwerke, Suchmaschinen, Browser, Messenger-Dienste und virtuelle Assistenten. Nicht darunter fallen aber vernetzte TV-Geräte.


Welche Pflichten haben künftig Gatekeeper?


Besonders relevant im Pflichtenkatalog sind Verbote: etwa die Registrierung für einen Dienst an die Registrierung eines anderen zu koppeln oder gewerblichen Nutzern zu untersagen, ihre Produkte und Leistungen auf Plattformen Dritter zu anderen Preisen und Bedingungen anzubieten. Außerdem müssten Betriebssysteme wie Googles Android oder Apples iOS zulassen, dass auf Smartphones andere App-Stores als ihre eigenen installiert werden. Die Praktiken der Selbstbevorzugung werden explizit verboten, indem etwa eigene Dienste dem Verbraucher bevorzugt angeboten werden und dadurch der Markt für kleinere oder neue Wettbewerber verschlossen wird. Ebenso wird es künftig nicht mehr erlaubt sein, Daten für gewisse Zwecke zusammenzuführen und zu nutzen, wie es etwa Facebook vorgeworfen wird.


Besonders relevant für Verbraucher ist auch die neue Pflicht zur Interoperabilität. So müssen als Gatekeeper eingestufte Messaging-Dienste ihren Nutzern ermöglichen, zwischen verschiedenen Plattformen (z.B. Whatsapp und Threema) Nachrichten auszutauschen und Videoanrufe zu tätigen.


Klingt nach Lex Google, Lex Apple, Lex Facebook…


In der Tat stecken hinter vielen der einzelnen Pflichten Fälle, in denen die Kommission und die nationalen Wettbewerbsbehörden gegen diese Unternehmen vorgegangen sind. Einzelfallgesetze darf es nicht geben, aber es ist natürlich möglich, für eine Markttätigkeit in der EU abstrakte Kriterien zu definieren, um möglichst viele problematische Verhaltensweisen zu verhindern.



Sicherlich wird es am Anfang vor allem die US-amerikanischen Tech-Giganten mit ihren Services treffen: Apples und Googles Appstore, neben Googles Suchmaschine auch Microsofts Bing, Facebook und Whatsapp oder Amazon Marketplace. Auch der für B2B bedeutsame Bereich des Cloud-Computings etwa von Amazon, der den größten Anteil am Konzerngewinn ausmacht, wird betroffen sein. Unklar ist allerdings noch, inwiefern europäische Plattformdienste wie Booking oder Zalando unter die Regeln fallen werden.


Schafft die Verordnung, die digitalen Märkte offener und fairer zu machen?


Entscheidend ist, wie die Regeln der Verordnung konkret angewendet und durchgesetzt werden. So wird sich in Zukunft zeigen, ob das festgeschriebene Verfahren gut funktioniert – dazu gehört insbesondere auch der zwischen Kommission und Gatekeepern vorgesehene Dialog über die Regulierungsmaßnahmen. Eine andere offene Frage ist, ob die vorgesehene Zusammenarbeit zwischen den nationalen Behörden und der EU-Kommission effektiv abläuft. Mit Spannung abzuwarten bleibt auch, welche Rolle nationale Gerichte bei der Durchsetzung der Regeln des DMA letztlich spielen werden.


Der EU-Kommission soll eine bedeutsame Rolle zufallen. Welche?


Die EU-Kommission solle eine ganz zentrale Rolle bekommen – das war in den Mitgliedstaaten durchaus umstritten. Der DMA erlaubt es der Kommission, verschiedenste Maßnahmen gegenüber den Gatekeepern anzuordnen. Das können verhaltensbezogene Maßnahmen sein, dass also ein Unternehmen etwas Bestimmtes nicht mehr tun darf oder aber etwas tun muss, bis hin zu strukturellen Maßnahmen wie etwa die Abspaltung ganzer Geschäftsbereiche. Gleichzeitig soll sie über die Einhaltung der Anordnungen wachen. Das alles erfordert, dass die EU-Kommission zahlreiche zusätzliche Stellen mit spezifischer Fachkompetenz schafft. So übernimmt sie eine völlig neue Rolle als Regulierungsbehörde, und man darf gespannt sein, ob es ihr letztlich gelingt, den großen Tech-Unternehmen auf Augenhöhe Paroli zu bieten.



Wenn nun alles nach Plan läuft und das Europäische Parlament und der Rat offiziell zustimmen, tritt die neue Verordnung 2023 in Kraft. Lassen sich denn alle Neuerungen unmittelbar umsetzen?


Das wird sich zeigen. Problematisch ist, dass viele technischen Fragen, die rechtlich relevant sind, nicht gelöst, sondern nur verschoben werden. Das Fine-Tuning erfolgt über sogenannte delegierte Rechtsakte, die von der Kommission erst noch erlassen werden müssen. In der Praxis zeigt sich, dass das Jahre dauern kann. Ein Beispiel: Bislang war die Deutsche Bahn nicht verpflichtet, Echtzeit-Angaben ihrer Züge anderen Verkehrsinformationsdiensten wie etwa Google Maps zur Verfügung zu stellen. Die entsprechende EU-Richtlinie, die das regelt, ist zwar seit 2010 in Kraft, die rechtlichen Details kamen 2017 in einem delegierten Rechtsakt der Kommission. Erst 2021 erhielten die Regelungen Eingang in das deutsche Personenbeförderungsgesetz, nach wie vor ist unklar, inwiefern die Deutsche Bahn Echtzeit-Angaben zur Verfügung stellen muss.


Was braucht es noch?


Die Effektivität der Durchsetzung durch die öffentliche Hand, also hier durch die EU-Kommission, hängt immer auch von der politischen Stoßrichtung ab. Und da können sich die Prioritäten schnell ändern. Die derzeitige Kommission mit Margrethe Verstager als Digitalkommissarin hat den DMA ganz oben auf der Liste, daher gibt es die Regeln überraschend schnell. Es garantiert aber nicht, dass es im Falle einer neuen Kommission mit neuer Agenda mit entsprechender Verve weitergeht.



Das Interview führte Michaela Hutterer



Persönliche Webseite von Heiko Richter

Studie  |  04.02.2022

Muss das Urheberrecht im wissenschaftlichen Bereich neu definiert werden?

In einer rechts­vergleichenden Studie unter­suchen Valentina Moscon und Marco Bellia die Rege­lungen zum Urheber­recht für das aka­de­mische Publi­kations­wesen in Italien, Deutsch­land und den USA. Dabei stellen sie bekannte Ansätze vor und kommen zu einem Lösungs­vor­schlag, der ein faireres und effi­zien­teres Publi­kations­wesen verspricht.

Eine seit vielen Jahren andauernde Diskussion über Urheberrecht im wissenschaftlichen Publikationswesen zeigt, welche Rolle das Urheberrecht einnimmt und auch welche dysfunktionalen Auswirkungen es hier hat.


Die Interessen kommerzieller Verlage und anderer Informationsanbieter unterscheiden sich von denen akademischer Autoren, wobei erstere in der Regel eine Strategie der Gewinnmaximierung verfolgen, während letztere einen breiten Zugang, eine offene und rechtzeitige Verbreitung sowie die Weiterverwendung wissenschaftlicher Ergebnisse sicherstellen wollen. Zudem wird Forschung in aller Regel durch Dritte finanziert, so dass akademische Autor*innen nicht primär auf ein Einkommen aus Veröffentlichungen angewiesen sind – Forschende publizieren in erster Linie um ihre Reputation zu verbessern und ihre Karriere voranzutreiben.


In diesem Zusammenhang lenkt der Beitrag von Valentina Moscon (Max-Planck-Institut für Innovation und Wettbewerb) und Marco Bellia (Università Cattolica del Sacro Cuore) die Aufmerksamkeit auf mögliche neue Modelle, die ein faireres und effizienteres wissenschaftliches Publikationswesen versprechen. Nach einer Betrachtung des rechtlichen Hintergrunds in Italien, Deutschland und den USA ziehen die Autoren verschiedene Maßnahmen in Betracht, von denen einige bereits auf nationaler Ebene ergriffen wurden. Bei diesen Maßnahmen kann es sich um private Eingriffe handeln, wie beispielsweise Verträge und Richtlinien der Hochschulen, oder um öffentliche, also gesetzgeberische Eingriffe. Letztere umfassen Maßnahmen außerhalb oder innerhalb des Urheberrechtssystems.


“International Instrument” als Modell für eine faire Lösung


Die Autoren kommen zu dem Schluss, dass es die beste Lösung ist, die Grenzen des Urheberrechtes neu zu definieren, indem der Umfang der erlaubten Nutzungen erweitert und gleichzeitig deutlicher festgelegt wird. Dies würde zu einer ausgewogeneren Funktionsweise des akademischen Publikationssystems führen. Ein Vorschlag in diese Richtung kommt von einer Urheberrechtsexperten-Gruppe,  die das International Instrument on Permitted Uses in Copyright Law entworfen hat. Zu dieser Gruppe gehört auch Valentina Moscon. Dieses Instrument, das in Form eines internationalen Abkommens konzipiert ist, hat das Ziel, ein ausgewogeneres System für den Umfang des internationalen Urheberrechtsschutzes zu schaffen. Neben anderen Bestimmungen enthält es ausdrücklich Regeln für zulässige Nutzungen im akademischen Bereich, einschließlich Nutzungen im Rahmen von Recherchen, Datenanalysen, Bildungszwecken und zur Verarbeitung von Werken durch Bibliotheken, Museen und Archive.


Zur Publikation:

Marco Bellia, Valentina Moscon
Academic Authors, Copyright and Dissemination of Knowledge: A Comparative Overview
Max Planck Institute for Innovation & Competition Research Paper No. 21-27

Was sagen uns Laborkatastrophen über die Bedeutung von physischem Kapital für die Forschung?
Studie  |  01.10.2021

Was verraten uns Laborkatastrophen über die Bedeutung von Sachkapital für die Forschung?

Die Forschung hat sich bisher weitgehend auf die wichtige Rolle von Humankapital bei der Schaffung von Wissen konzentriert. In einer neuen Studie wird nun die Rolle von Sachkapital bei der Wissensproduktion untersucht, wobei Laborkatastrophen wie Explosionen, Brände und Überschwemmungen als natürliches Experiment dienen. Die Ergebnisse liefern wichtige Hinweise für die Wissenschafts- und Innovationspolitik.

Die Autoren der Studie ermitteln die Bedeutung von Sachkapital für die Wissensproduktion. Dafür betrachten sie widrige Ereignisse (Explosionen, Brände, Überschwemmungen usw.) in Forschungseinrichtungen als exogene Schocks für den Bestand an Sachkapital. Forschende erfahren einen erheblichen und anhaltenden Rückgang ihrer Forschungsleistung, wenn sie spezialisiertes Sachkapital verlieren, d.h. Instrumente und Materialien, die sie im Laufe der Zeit für einen bestimmten Forschungszweck geschaffen haben. Im Gegensatz dazu erholen sie sich schnell, wenn sie nur allgemeines Sachkapital verlieren. Betroffene Forschende in älteren Laboren, die vermutlich mehr veraltetes Sachkapital verlieren, ändern eher ihre Forschungsrichtung und erholen sich in ihrer wissenschaftlichen Produktivität. Diese Ergebnisse deuten darauf hin, dass die Investitionen von Forschenden in eigenes Sachkapital dauerhafte Erträge bringen, aber auch eine Pfadabhängigkeit in Bezug auf ihre Forschungsrichtung schaffen.


Die Studie legt nahe, dass die Wissenschafts- und Innovationspolitik die Rolle des Sachkapitals bei der Wissensproduktion stärker berücksichtigen sollte.


Direkt zur Publikation von
Stefano Baruffaldi und Fabian Gaessler
The Returns to Physical Capital in Knowledge Production: Evidence from Lab Disasters
Max Planck Institute for Innovation & Competition Research Paper No. 21-19

Schmuckbild
Stellungnahme  |  09.09.2021

KI-Systeme als Erfinder?

Die Frage, ob KI-Systeme als Erfinder anerkannt werden können und sollten, wurde bereits weltweit diskutiert. Angesichts der sich abzeichnenden Rechtsprechung zu diesem Thema, hat das Institut eine Stellungnahme veröffentlicht.

Die Stellungnahme beleuchtet die Argumente, die in der jüngsten Entscheidung des australischen Bundesgerichtshofs für dieses Vorgehen angeführt werden, kritisch und hebt hervor, dass sie auf fragwürdigen Annahmen beruhen – zum einen hinsichtlich der technischen Möglichkeiten Künstlicher Intelligenz, zum anderen hinsichtlich des angeblich positiven Einflusses einer entsprechenden Anerkennung auf Innovationen. Im Allgemeinen wird betont, dass zunächst die Frage geklärt werden sollte, ob Erfindungen, die vermeintlich durch KI generiert wurden, überhaupt Patentschutz genießen sollten.


Stellungnahme als pdf

Stellungnahme  |  08.09.2021

KI-Systeme als Erfinder?

Stellungnahme des Max-Planck-Instituts für Innovation und Wettbewerb vom 7. September 2021

Verschiedenes  |  30.08.2021

Macht im digitalen Raum: Verfassungsblog und Institut veranstalten Online-Symposium

Sind der Digital Services Act und der Digital Markets Act geeignete Instrumente, um private Macht im digitalen Raum zu regulieren? Dieser Frage geht ein Online-Symposium des Verfassungsblogs und des Instituts nach. Am 30. August startet die Veröffentlichung einer Serie von 15 Blogbeiträgen, die den wissenschaftlichen Diskurs zu dem Thema einem breiteren Publikum nahebringt.

Die Konzentration von privater Macht im digitalen Raum ist nicht länger tragbar – darüber besteht Einigkeit diesseits und jenseits des Atlantiks. Doch wie reguliert man Formen privater Macht wie Marktmacht oder die Macht über Meinungen? Obwohl es keinen transatlantischen Konsens darüber gibt, wie geeignete Lösungen aussehen könnten, ist ein klarer Trend zu regulatorischen Eingriffen erkennbar. Mit dem Digital Services Act (DSA) und dem Digital Markets Act (DMA) hat die Europäische Kommission im Dezember 2020 zwei Gesetzesvorschläge präsentiert, die in dieser Legislaturperiode die Orientierungspunkte in der europäischen Digitalpolitik bilden.
 

Anlässlich der Gesetzgebungsvorhaben veranstaltet das Institut gemeinsam mit dem Verfassungsblog ein Online-Symposium zum Thema “To Break Up or Regulate Big Tech? Avenues to Constrain Private Power in the DSA/DMA Package“. In 15 Blogbeiträgen diskutiert ein diverses Feld von Wissenschaftlerinnen und Wissenschaftlern unterschiedliche Facetten des Themas. Die Beiträge richten sich an ein breiteres Publikum und werden ab dem 30. August sukzessive auf der Website des Verfassungsblogs veröffentlicht.


Alle Blogbeiträge finden Sie hier.

Max-Planck-Institut für Innovation und WettbewerbGI-Projekt, Geographische Herkunftsangaben, Geographical Indications, GI
Studie  |  03.08.2021

Schutz Geographischer Herkunftsangaben: Weitere Schritte in der GI-Forschungsagenda des Instituts

Nachdem die Auswirkungen Geographischer Herkunftsangaben bislang kaum erforscht sind, hat das Institut 2018 eine eigene Forschungsinitiative zu dem Thema ins Leben gerufen. Eine Forschungsgruppe untersucht verschiedene Ansätze zum Schutz Geographischer Herkunftsangaben in der Europäischen Union und in lateinamerikanischen Ländern.

Max-Planck-Institut für Innovation und WettbewerbGI-Projekt, Geographische Herkunftsangaben, Geographical Indications, GI
Eine Forschungsgruppe des Instituts untersucht seit 2018 die Auswirkungen Geographischer Herkunftsangaben in der EU und in Lateinamerika

Geographische Herkunftsangaben (Geographical Indications, GIs) sind Bezeichnungen für Produkte aus bestimmten Regionen, die ihre Qualität oder Reputation ihrer geographischen Herkunft verdanken. Indem sie zur Qualitätsdifferenzierung von lokalen Produkten dienen, erhalten entsprechende Waren mehr Beachtung im Markt und erzielen meist höhere Preise. Auf diese Weise sind Geographische Herkunftsangaben wichtige Mittel, um die wirtschaftliche Entwicklung insbesondere im ländlichen Raum zu fördern.


Obwohl die weltweite Aufmerksamkeit für GIs wächst – sowohl von Seiten der Politik als auch der Ökonomie – gibt es bislang nur wenig rechtswissenschaftliche Forschung zu dem Thema. Das Institut, das bereits seit vielen Jahren in dem Bereich forscht, hat deswegen 2018 eine eigene Forschungsagenda ins Leben gerufen, die Geographische Herkunftsangaben tiefgreifend untersucht. Die Initiative geht in zwei verschiedene Richtungen: Sie nimmt zum einen eine Gesamtbetrachtung des GI-Systems der Europäischen Union vor, zum anderen untersucht sie das Potenzial von GI-Systemen in Lateinamerika.


Gesamtbewertung des GI-Systems in der EU


Innerhalb der Europäischen Union gibt es seit 1992 ein einheitliches Schutzsystem für Geographische Herkunftsangaben für landwirtschaftliche Produkte und Lebensmittel. Unterschieden werden zwei Arten Geographischer Herkunftsangaben: Sogenannte Protected Geographical Indications (PGIs) und Protected Designations of Origin (PDOs). Beide genießen den gleichen Schutzumfang, unterscheiden sich jedoch hinsichtlich der Anforderungen an die Registrierung und Aufrechterhaltung. 


Obwohl sich das europäische GI-System in der Praxis bewährt hat, besteht die Notwendigkeit, seine allgemeine Funktionsweise während der vergangenen drei Jahrzehnte besser zu verstehen. Eine Forschungsgruppe mit fünf Mitgliedern hat deswegen eine umfassende qualitative und quantitative Untersuchung der vorhandenen Daten vorgenommen.


In einem ersten Schritt führten die Mitglieder der Gruppe eine statistische Analyse aller PGIs und PDOs durch, die zwischen 1996 und 2019 im Rahmen des EU-Schutzsystems für landwirtschaftliche Erzeugnisse und Lebensmittel registriert wurden. Die Datenquelle für diese Analyse war das sogenannte “Single Document”. Als Kern jedes Antrags auf Eintragung einer Geographischen Herkunftsangabe enthält dieses unter anderem eine Definition der geographischen Region, eine Beschreibung der Produktionsmethode und Details über den sogenannten “Origin Link” – den kausalen Zusammenhang zwischen dem Produkt und der geographischen Region. Weitergehende Untersuchungen zu Backwaren und Kartoffeln bezogen im Rahmen einer qualitativen Auswertung auch die komplette Spezifikation ein. Die Untersuchung ergab eine Verbesserung der Qualität und Genauigkeit der angegebenen Informationen, insbesondere über die Verbindung zwischen Region und Produkt.


Obwohl die Anforderungen an den Erhalt eines GI-Schutzes und die wichtigsten Verfahrensregeln innerhalb der EU vereinheitlicht wurden, sind auch die nationalen Behörden weiter in den Registrierungsprozess einbezogen. Weitere Untersuchungen der nationalen Regeln und zugehörigen Verfahren in ausgewählten Ländern ergaben, dass nationale Ansätze und Eigenheiten die Funktionsfähigkeit eines einheitlichen Schutzsystems beeinträchtigen könnten.


Im Jahr 2018 kündigte die Europäische Kommission an, das gegenwärtige GI-Schutzsystem auf nicht-landwirtschaftliche Produkte ausweiten zu wollen. Für diese existieren Schutzmöglichkeiten bislang nur auf nationaler Ebene. Im Vorgriff auf einen Vorschlag der EU untersuchten die Forschenden einige der nationalen Schutzsysteme um herauszufinden, ob das gegenwärtige EU-System mit seinen PGIs und PDOs auch für nicht-landwirtschaftliche Produkte passend sein könnte. Die Erkenntnisse deuten darauf hin, dass eine Ausweitung des bestehenden Systems – mit einigen prozessualen Anpassungen – funktionieren könnte.


In einem nächsten Schritt ist – in Zusammenarbeit mit der Universität von Alicante und der EUIPO – eine Untersuchung der Schnittstelle zwischen dem GI-System und dem Markensystem, inklusive Kollektivmarken und Gütesigel, geplant.


Untersuchung der GI-Systeme in Lateinamerika


Wegen ihres Potenzials, die wirtschaftliche und soziale Entwicklung in Produktionsregionen zu fördern, spielen Systeme zur Qualitätsdifferenzierung für lateinamerikanische Länder eine besonders wichtige Rolle. Eine herkunftsbasierte Produktion, einschließlich des verarbeitenden Gewerbes, des Kunsthandwerks und insbesondere der Lebensmittelproduktion, ist für ihre Wirtschaft von wesentlicher Bedeutung, allem voran für kleine Produzenten, Handwerker und Kleinbauern. Doch obwohl sich viele Produkte aus Lateinamerika für einen Schutz durch Geographische Herkunftsangaben gut eignen, erfordert die Integration von lokalen Bedürfnissen, kulturellen Traditionen und sozialen Aspekten weitere Forschung. Auch andere verfügbare Kennzeichen zu identifizieren sowie deren Schnittstellen, Stärken und Schwächen zu untersuchen, würde dabei helfen, das System als Ganzes besser zu verstehen.


Die Tatsache, dass der Schutz Geographischer Herkunftsangaben zunehmend Gegenstand von Freihandelsabkommen unter Beteiligung lateinamerikanischer Länder ist, könnte darüber hinaus deren Handlungsspielraum für die Festlegung nationaler und regionaler Ansätze beschränken. Eine weitere Untersuchung von Verpflichtungen aus Freihandelsabkommen könnte dementsprechend Herausforderungen bei der Umsetzung auf nationaler Ebene aufzeigen.


Im Rahmen der 2018 ins Leben gerufenen Initiative “Smart IP for Latin America” (SIPLA) des Instituts ergab sich deswegen schnell, dass Geographical Indications ein Gebiet sind, das weiterer Erforschung bedarf. Erster Schritt im Rahmen des SIPLA-Projekts “Collective Distinctive Signs” war deswegen eine Untersuchung von GIs in Form einer rechtsvergleichenden Bewertung der Systeme neun ausgewählter Staaten in der Region. Angesichts der Fülle an Informationen, die für die Forschenden für ihre Arbeit von Interesse sind, hat das SIPLA-Team einen umfassenden Fragebogen entworfen, der von Vertretern aus Argentinien, Brasilien, Chile, Kolumbien, Costa Rica, Mexiko, Paraguay, Peru und Uruguay beantwortet wurde. Der Fragebogen rückte insbesondere die Schutzsysteme für Geographische Herkunftsangaben sowie auch andere bestehend Kennzeichen in den Fokus. Er enthielt Fragen zu nationalen, regionalen und lokalen Rechtsvorschriften, sofern entsprechende Regeln existieren, sowie zur Rechtsprechung.


Auf Basis der Informationen, die durch den Fragebogen gewonnen wurden sowie durch die Analyse der Freihandelsabkommen, denen die ausgewählten Länder angehören, wurde ein umfassender “General Comparative Report” erstellt. Schließlich wurden in den verschiedenen nationalen und regionalen Systemen gemeinsame Elemente identifiziert. Aus diesen Elementen ergeben sich mindestens zwei mögliche Forschungsbereiche, die in Zukunft weiterentwickelt werden sollten. Der erste bezieht sich auf weitere Kennzeichnungsmöglichkeiten neben Geographical Indications – insbesondere Zeichen für den kollektiven Gebrauch, von denen vor allem Kleinbauern und kleinere Produzenten profitieren können. Der zweite befasst sich mit der weiteren Erforschung des Schutzniveaus von Geografischen Herkunftsangaben mit Fokus auf die Einbeziehung von Standards aus dem TRIPS-Abkommen und Verpflichtungen aus Freihandelsabkommen auf nationaler und regionaler Ebene.


Ausführliche Informationen über die Forschungsinitiative finden Sie im ePaper des aktuellen Tätigkeitsberichts.

Studie  |  29.07.2021

Welche Patente sind wirklich standardessenziell? Eine automatisierte semantikgestützte Analyse

Die Identifizierung von standardessenziellen Patenten (SEPs) stellt eine erhebliche Herausforderung für Forschende, Praktiker und politische Entscheidungsträger dar. In einer neuen Studie wird ein semantikgestützter Ansatz zur Bewertung der geltend gemachten Standardessenzialität von deklarierten Patenten vorgestellt.

Automatisierte Analyse der Textähnlichkeit zwischen Patenten und Standards

SEPs spielen für die technische Koordination in Standardisierungsorganisationen eine zunehmend wichtige Rolle. Es bleibt jedoch unklar, ob ein deklariertes Patent wirklich standardessenziell ist. Strategische Anreize können Patentinhaber in ihrer Entscheidung beeinflussen, Standardessenzialität geltend zu machen. Dies kann zu rechtlichen und vertraglichen Konflikten während der Standardsetzung und den anschließenden Lizenzverhandlungen führen. Die neue Studie von  Lorenz Brachtendorf, Fabian Gaessler und Dietmar Harhoff befasst sich mit dieser Problematik und stellt eine automatisierte, semantikgestützte Methode zur Bestimmung der Standardessenzialität von Patenten vor.


Die manuelle Prüfung von Patenten auf Standardessenzialität erfordert ein hohes Maß an technischem Wissen und zeitlichem Aufwand. Im Gegensatz dazu ist die vorgestellte Methode einfach und kostengünstig in der Anwendung. Der skalierbare, objektive und replizierbare Ansatz ermöglicht vielfältige praktische Anwendungen. Die Autoren veranschaulichen die Nützlichkeit der Methode bei der Bestimmung des Anteils tatsächlicher SEPs in Patentportfolios von Firmen für mehrere globale Mobilfunkstandards. Die Ergebnisse offenbaren erhebliche Unterschiede auf Unternehmensebene, die statistisch signifikant und ökonomisch bedeutsam sind.


Neben praktischen Anwendungen kann die Methode auch Erkenntnisse von politischer Relevanz liefern. So kann beispielsweise untersucht werden, ob bestimmte politische Maßnahmen ihr Ziel erreichen, patentbedingte Konflike im Standardisierungs- und Umsetzungsprozess abzuschwächen.


Diese Studie leistet einen wichtigen Beitrag zur Vereinfachung der Ex-ante-Koordinierung zwischen Technologieanbietern und Implementierern von technischen Standards. Dies ist von besonderer Bedeutung, da standardisierte Lösungen für die Informations- und Kommunikationstechnologien zu einem wichtigen Aspekt der technologischen Innovation geworden sind und in vielen Branchen unserer Wirtschaft allgegenwärtig sind. Die Studie wird demnächst präsentiert auf der USPTO 14th Annual Conference on Innovation Economics sowie auf der EPIP 2021.


Zum Projektposter (in englischer Sprache).


Zur ausführlichen Projektbeschreibung (in englischer Sprache) im Tätigkeitsbericht 2018 - 2020.


Hören Sie den EPO Podcast – Talk Innovation “Research into Patents – Drilling Deeper on the Standard Essentiality of Patents” mit Dietmar Harhoff (in englischer Sprache).


Publikationen


Brachtendorf, Lorenz; Gaessler, Fabian; Harhoff, Dietmar (2020). Approximating the Standard Essentiality of Patents – A Semantics-Based Analysis. Final Report for the European Patent Office Academic Research Programme.


Brachtendorf, Lorenz; Gaessler, Fabian; Harhoff, Dietmar (2020). Truly Standard-Essential Patents? A Semantics-Based Analysis. CEPR Discussion Paper No. DP14726 und CRC Discussion Paper No. 265.