Suche
Suche Menü

Social Bots im Wahlkampf: Verletzen Meinungsroboter das Urheberrecht?

Rechtliche Einschätzung von Social Bots durch Rechtsanwalt Oliver Wolf

Der große Bot-Angriff auf die Bundestagswahl blieb bislang aus. Trotzdem bestehen Befürchtungen, das Vertrauen in die Wahl könnte durch gezielte Falschmeldungen untergraben werden. Unser Artikel zeigt, dass das Urheberrechtsgesetz gegen Social Bots eingesetzt werden kann.

Einleitung

Obgleich Social Bots keine neue Erscheinung sind,1 drangen sie erst durch die US-amerikanische Präsidentschaftswahl 2016 in das Bewusstsein einer breiteren Öffentlichkeit. In Deutschland wurde das Thema zunächst nur zögerlich aufgegriffen. Spätestens jedoch seitdem sich eine Vermengung mit der Problematik der sog. „Fake News“ abzeichnet, ist das Thema auch in Deutschland auf die Tagesordnung gerückt. Blieb es anfangs bei Verpflichtungserklärungen der Parteien, keine Social Bots einzusetzen, wird inzwischen dafür plädiert, die Materie einer gesetzlichen Regelung zuzuführen. Das zeigt, dass das Thema – wohl auch angesichts der in diesem Jahr anstehenden Wahlen – inzwischen politisch durchaus ernst genommen wird.

Beispiel für eine Falschmeldung bei Facebook

Die Untersuchung erläutert, was Social Bots sind und wie sie funktionieren (I.). Dabei wird auf das Gefährdungspotenzial (II.), aber auch auf nützliche Anwendungsfelder (III.) eingegangen. Sie zeigt, dass Bots bei abstrakter Betrachtung zwar nicht sanktionierbar sind, dass der Einsatz bestimmter Techniken allerdings das Datenbank- bzw. Datenbankwerkrecht verletzen kann (IV.). Da die gebotene Kürze keine umfängliche Darstellung aller Problemfelder im Zusammenhang mit Social Bots erlaubt, ist das vorrangige Anliegen der Ausführungen die grundlegende Einordnung des Themas in der gerade erst beginnenden Debatte.

Nach oben

I. Begriffsbestimmung: Was sind Bots? Was sind Social Bots?

1. Bots

Bots (Kurzform für engl. robot) sind im weitesten Sinne Computerprogramme, die eingesetzt werden, um zeitaufwendige Aufgaben automatisiert vorzunehmen.2 Ein alltägliches Beispiel für den Einsatz solcher Bots sind Internetsuchmaschinen: Der Index, in dem alle Webseiten eingetragen sind, die der Suchmaschine bekannt sind, wird nicht etwa von Menschenhand angelegt. Vielmehr sind autonom handelnde Bots wie der Googlebot „unterwegs“, die sich durch die über Verlinkungen aufgefundenen Seiten arbeiten und die gefundenen Informationen zusammentragen. Der typische Verwendungszweck von Bots liegt also dort, wo sehr große Mengen von Daten in kurzer Zeit nach einem bestimmten Muster bearbeitet werden sollen.

2. Social Bots

Die Bot-Technik kann aber auch genutzt werden, um massenhaft menschliches Verhalten in sozialen Netzwerken nachzuahmen. Von einem Social Bot ist dann die Rede, wenn das Programm auf die Interaktion mit Menschen ausgerichtet ist.3 Social Bots sind so programmiert, dass sie tausende Nutzeraccounts von sozialen Netzwerken wie Facebook oder Twitter4 steuern und mit anderen Nutzern interagieren können. Das bedeutet, sie können vorgefertigte Nachrichten posten, auf bestimmte Schlagworte mit vorgefertigten Textbausteinen reagieren oder Beiträge anderer Nutzer „retweeten“, also weiterverbreiten.

Darunter gibt es simplere Varianten, die permanent und massenhaft Nachrichten versenden. Diese sind auch für Laien leicht zu erkennen, da eine auch nachts unterbrechungsfreie und in regelmäßigen Zeitabständen stattfindende Aktivität nicht dem Verhalten eines menschlichen Nutzers entspricht. Komplexere Social Bots sind demgegenüber auch für Experten nur schwer auszumachen, da bspw. ihr Aktionsverhalten an den tatsächlichen Tagesablauf eines Menschen angepasst ist und sie sogar in der Lage sind, „Unterhaltungen“ über Themen wie z.B. den Klimawandel5 zu führen. In beiden Fällen lässt sich der Betrieb eines Social Bots mit einem relativ geringen technischen und finanziellen Aufwand bewerkstelligen. 1.000 gefälschte Nutzeraccounts werden ab 45 US-Dollar angeboten.6 Die Software – also der eigentliche Bot – zur Steuerung von bis zu 10.000 Accounts kostet ca. 500 US-Dollar.7

3. Steuerung über Programmierschnittstellen

Funktionieren kann die massenhafte Steuerung verschiedener Accounts über Programmierschnittstellen (APIs).8 Dabei handelt es sich, vereinfacht gesagt, um Zugriffsstellen, über die der Datenspeicher des jeweiligen Dienstes – also auch die zu dem jeweiligen Nutzeraccount gehörigen Daten – abgerufen werden kann. Dadurch ist es möglich, den Dienst auf verschiedenen Wegen zugänglich zu machen. So besteht Flexibilität, kompatible Programme für verschiedene Plattformen (bspw. Webseite, Handy-App oder auf dem PC installiertes Programm) zu erstellen, die auf denselben Datenbestand zurückgreifen können. Die Betreiber sozialer Netzwerke haben ein Interesse daran, diesen Zugang frei zur Verfügung zu stellen. Denn wenn bspw. Fitnesstracker-Apps das letzte Training automatisch posten oder neue Beiträge eines Bloggers automatisch verlinkt werden, dient das der Verbreitung des eigenen Dienstes und kann damit zumindest potenziell zu höheren Werbeeinnahmen führen.

Nach oben

II. Der „Bot-Effekt“ und der Vergleich zu konventionellen Medien

Gerade mit Blick auf politische Wahlkämpfe zeigt sich, dass Social Bots mehr sind als bloße technische Spielerei oder schlichtes Kommunikationsmittel. Vielmehr können sie erhebliche Auswirkungen auf die politische Debatte haben, die Hegelich unter dem Begriff „Bot-Effekt“ zusammenfasst.9

Werden Social Bots so programmiert, dass Meldungen in tausendfacher Ausführung verbreitet werden oder dass automatisch auf gewisse Schlagworte reagiert wird, kann bei den übrigen Nutzern der Eindruck entstehen, dass bestimmte Meinungen von besonders vielen Menschen vertreten werden bzw. als teilens- und diskutierenswert erachtet werden (sog. „trending topics“). Das ist zwar an sich keine neue Erscheinung. Schon vor dem Zeitalter sozialer Netzwerke gab es bspw. Zeitungen, die einflussreicher, auflagenstärker oder weiter verbreitet als andere waren, sodass die dort vertretenen Ansichten einen höheren Verbreitungsgrad hatten.

Das gleiche Bild ergibt sich bei Fernsehsendungen oder Talkshows, die unterschiedlich hohe Einschaltquoten haben und unterschiedlich stark in der Debatte wahrgenommen werden. Hier ist ebenfalls nicht auszuschließen, dass eine bestimmte Meinung als die Vorherrschende wahrgenommen wird. Bei isolierter Betrachtung dieser Umstände könnte man somit zu dem Ergebnis kommen, dass die Debattenkultur auch im Wahlkampf keiner Gefährdung ausgesetzt ist, mit der sie nicht schon seit Jahrzehnten umzugehen gelernt hat. Indes bestehen mehrere wesentliche Unterschiede hinsichtlich des Beeinflussungspotentials von Social Bots zu den klassischen Medien.10

1. Filterblase

Bei den Inhalten, die den Nutzern angezeigt werden, handelt es sich nicht um rundfunkartig-linear verbreitete Meldungen. Vielmehr sind diese individuell auf den jeweiligen Nutzer zugeschnitten und hängen von verschiedenen Faktoren ab, insbesondere auch davon, was gerade die „trending topics“ sind. Hierauf können Social Bots einen verzerrenden Einfluss haben, sodass ein Vergleich mit konventionellen Medien nicht greift.

Bliebe man beim Beispiel der Printmedien, wäre die Beeinflussung eher damit zu vergleichen, dass am Zeitungskiosk bestimmte Blätter nur schwer sichtbar sind, weil der Kiosk vom politischen Gegner mit Zeitungen eigener Couleur überfrachtet wurde: Gegenläufige Auffassungen sind dann zwar noch auffindbar. Der Leser wird aber nicht darauf aufmerksam gemacht und muss gezielt danach suchen (sog. „Filterblase“11).

Gefahren der Filterblase - den User erreicht nur Teil der Nachrichten

Gefahren der Filterblase – den User erreicht nur Teil der Nachrichten

2. Verzerrung des Meinungsbildes

Durch künstlich aufgeblähte Meinungen droht zum einen die Entstehung einer Schweigespirale. So kann es passieren, dass die Anhänger der Mehrheitsmeinung davon absehen, diese zu äußern, weil sie den Eindruck haben, lediglich für die Minderheit zu stehen. Zum anderen kann ein „virtueller Herdentrieb“ entstehen, wenn bisher schweigende Anhänger einer Mindermeinung sich plötzlich in „bester Gesellschaft“ wähnen und zu der Überzeugung kommen, ihre eigene Ansicht entspräche dem, was „die Leute auf der Straße“ denken. Der hier zu den konventionellen Medien bestehende Unterschied liegt in den minimalen Ressourcen, die erforderlich sind, um erhebliche Verzerrungen des Meinungsbildes herbeizuführen.

3. Einfluss der „Trends“ auf politische Strategien

Schließlich besteht ein wesentliches Problem in dem vermeintlich zuverlässigen Abbild, das eine Analyse der kommunizierten Inhalte über die in der Gesamtbevölkerung vertretenen Ansichten ergibt. Es lässt sich leicht ermitteln, wieviel Prozent aller „Tweets“ sich mit einem bestimmten Thema auseinandersetzen. Ab einer bestimmten Größe wird das Thema im Wahlkampf schwerlich ignoriert werden können. Wenn diese Zahlen aber, wie oben beschrieben, künstlich aufgebläht und tatsächlich nicht repräsentativ sind, droht die Bevorzugung von Partikularinteressen oder eine verzerrte Wahrnehmung über die Bedürfnisse, Ängste und Prioritäten der Bevölkerung.12

Nach oben

III. Anwendungsszenarien außerhalb des Meinungskampfes

Es darf gleichzeitig nicht übersehen werden, dass dieselbe Technik auch im Bereich der Kommunikation von Unternehmen zu Kunden eingesetzt werden kann.13 Insoweit ist festzuhalten, dass der häufig – auch hier – verwendete Begriff der „Meinungsroboter“ unpräzise ist. Die Einsatzszenarien sind vielfältig: Beispielsweise werden „Robo-Advisors“ im Bereich der Finanzanlagenberatung eingesetzt. So können Kunden, für die eine klassische Anlageberatung nicht erschwinglich wäre, aufgrund der günstigen Kostenstrukturen Zugang zu derartigen Dienstleistungen erhalten.14

Die Bundesagentur für Arbeit setzt schon jetzt Chatbots ein, um Jugendliche an das Thema Berufswahl heranzuführen und bedient auf diesem Weg mehrere zehntausend Anfragen täglich. Im gesamten Bereich der Kundenkommunikation liegen nützliche Anwendungsmöglichkeiten für Social Bots auf der Hand, insbesondere angesichts fortschreitender Technik auf dem Feld der Spracherkennung.15

Möglicherweise wird man sich schon in naher Zukunft nicht mehr zur Bahnfahrkarte „durchklicken“, sondern sie im „Gespräch“ mit der Software buchen. Kontaktformulare, wie sie sich heute auf vielen Internetseiten befinden, könnten weitestgehend durch Social Bots abgelöst werden. Auch im politischen Bereich könnten Anfragen, etwa zu Inhalten des Wahlprogramms oder den zur Wahl stehenden Kandidaten, automatisch beantwortet werden.

Nach oben

IV. Juristische Einordnung von Bots

Im Folgenden wird gezeigt, dass Social Bots bei abstrakter Betrachtung keine Verbotsgesetze verletzen. Angesichts der positiven Anwendungsszenarien wird erörtert, dass eine abstrakte Zweckbestimmung, die zur Schaffung eines Verbotsgesetzes erforderlich wäre, nicht möglich ist. Schließlich wird dargelegt, dass es Fälle gibt, in denen Social Bots Normen des Urheberrechtsgesetzes verletzen und daher rechtswidrig sind.

1. Keine Rechtswidrigkeit bei abstrakter Betrachtung

Das Gesetz kennt zwar Fälle, in denen bereits die Erstellung von Computerprogrammen Straftatbestände erfüllt. Diese sind jedoch nicht einschlägig.

a) Kein Abstellen auf Inhalte

Bei der juristischen Einordnung von Social Bots ist zunächst hervorzuheben, dass nicht auf die Inhalte abgestellt werden kann, die über die Social Bots verbreitet werden.16 Inhalte, die als Schmähkritik oder unwahre Tatsachenbehauptung nicht von der Meinungsfreiheit gedeckt sind, sind unabhängig vom Kommunikationskanal rechtswidrig, was hier keiner weiteren Vertiefung bedarf.17 Ebenso verhält es sich mit Äußerungen strafbaren Inhalts (etwa Verleumdung, Beleidigung, üble Nachrede). Entsprechend ist auch kein Raum für solche Verbotsnormen, deren Tatbestand zwar durch die Programmierung von Software erfüllt werden kann, deren Voraussetzung aber das Vorhandensein bestimmter Inhalte ist. So ordnen etwa §§ 86a Abs. 1 Nr. 2, 130 Abs. 2 Nr. 3, 131 Abs. 1 Nr. 3 StGB Verbote der Herstellung von Gegenständen an, die Kennzeichen verfassungswidriger Organisationen enthalten18, bzw. stellen Schriften volksverhetzenden oder gewaltverherrlichenden Inhalts unter Strafe. Wenngleich ein Social Bot zur Übermittlung derartiger Inhalte genutzt werden kann, liegt es auf der Hand, dass diese kein zwingender Programmbestandteil sind. Vielmehr kann der Social Bot mit beliebigen und wechselnden Inhalten „bestückt“ werden. Ein Verbot der abstrakt betrachteten Software lässt sich hieraus entsprechend nicht ableiten.

b) Zweck der Software

Daneben bestehen Verbotsnormen, die nicht auf den Inhalt, sondern auf den Zweck des Programmes abstellen. § 202c Abs. 1 Nr. 2 StGB verbietet die Herstellung (und andere Handlungsweisen) von Computerprogrammen, die dem Zweck des Ausspähens oder Abfangens von Daten dienen. Diese Norm gilt gem. § 303a Abs. 3 StGB entsprechend für Computerprogramme, die dem Zweck der Datenveränderung dienen. § 108b Abs. 2 iVm § 95a Abs. 3 Nr. 3 UrhG verbietet die Herstellung von Vorrichtungen zur Umgehung technischer Maßnahmen zum Kopierschutz, wovon insbesondere auch Software erfasst ist.19 Diese Normen sind evident nicht einschlägig. Wie dargelegt, werden die Daten, die die Social Bots abrufen, über die Programmierschnittstelle zur Verfügung gestellt, wobei auch keine technischen Maßnahmen umgangen werden. Auch hieraus lässt sich somit kein Verbot ableiten.

2. Keine brauchbare Abgrenzung zwischen „guten“ und „schlechten“ Bots

Mit Blick auf mögliche zukünftige Gesetzgebung muss festgehalten werden, dass eine abstrakte Zweckbestimmung, die zur Normierung eines Verbotsgesetzes erforderlich wäre, enorme Schwierigkeiten aufwirft. Ein Zweck, der alle Social Bots erfasst, die den „Bot Effekt“ hervorrufen und dessen Einstufung als unzulässig nicht mit etablierten Grundsätzen kollidiert, ist nicht ersichtlich.

a) Identitätstäuschung

Eine Identitätstäuschung ist Social Bots nicht immanent. Kommen Social Bots etwa im Servicebereich zum Einsatz, ist dem Gegenüber zumindest klar, in wessen Lager der Bot zu verorten ist. Zudem können die Social Bots nur funktionieren, wenn sie mit einem Nutzerprofil verknüpft sind. Darüber lässt sich ausschließen, dass Social Bots sich für einen anderen, etwa einen Politiker, ausgeben.20

Daneben ist aber auch zu beachten, dass keine gesetzliche Klarnamenpflicht besteht. Vielmehr sieht § 13 VI TMG grundsätzlich eine Verpflichtung von Diensteanbietern vor, die Nutzung ihrer Dienste anonym oder unter einem Pseudonym zu ermöglichen. Zudem ist gerade auch die anonyme Meinungsäußerung von Art. 5 GG geschützt.21 Auch aus der Entscheidung des EuGH22, die die Betreiber offener WLAN-Hotspots dazu verpflichtet, die Identität der Nutzer festzustellen, um ggf. den Täter von Rechtsverletzungen feststellen zu können, ändert hieran nichts. Der Nutzer muss seine Identität lediglich dem Hotspot-Betreiber preisgeben. Daraus ergibt sich aber kein allgemeiner Grundsatz, der ein anonymes Auftreten in sozialen Netzwerken oder Internetforen etc. verbieten würde.

b) Autonomes Tätigen von Äußerungen

Wie anfangs dargelegt, sind nicht alle Social Bots zu Kommunikation mit dem Gegenüber in der Lage. Allerdings eint sie unabhängig vom konkreten Einsatzgebiet das Merkmal, dass sie autonom Äußerungen tätigen.

Die autonome Tätigung von Äußerungen wird aber als solche von der Rechtsprechung nicht beanstandet. In seiner Autocomplete-Entscheidung befasste sich der BGH mit der Frage, welcher Aussagegehalt einer automatisierten Aussage beizumessen ist. Dabei wurde die generelle Zulässigkeit automatisierter Aussagen offenkundig unterstellt. Angesichts der unter III. beschriebenen Anwendungsmöglichkeiten wäre eine andere Einordnung auch vollkommen verfehlt.

c) Manipulation und Desinformation

Das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag nimmt eine Differenzierung vor. Demnach ist zwischen „unterstützenden Bots“ und „Social Bots“ zu unterscheiden. Um Social Bots handele es sich nur, wenn sie dem Zweck der Manipulation und der Desinformation dienen.23 Die „unterstützenden Bots“ dürften demnach jene sein, die unter die in III. beschriebenen Anwendungsfelder fallen.

Allerdings ist diese Abgrenzung weder zutreffend noch hilfreich. Das Element der „Desinformation“ würde dazu führen, dass Bots, die ausschließlich Meinungen verbreiten, nicht von der Definition erfasst werden. Eine „Desinformation“ kann denknotwendig nur Materien betreffen, die einem Beweis zugänglich sind. Dem Beweis als wahr oder unwahr zugänglich sind aber nur Tatsachenbehauptungen.24 „Desinformierende“ Meinungen existieren nach dem Verständnis des Art. 5 Abs. 1 S. 1 GG nicht. Vielmehr sind Meinungen unabhängig davon, ob sie rational oder emotional, begründet oder grundlos sind und ob sie von anderen für nützlich oder schädlich, wertvoll oder wertlos gehalten werden.25 Der unerwünschte „Bot-Effekt“ kann aber auch durch solche Bots erzeugt werden, die reine Meinungsäußerungen verbreiten.

Auch der Begriff der „Manipulation“ liefert, ebenfalls angesichts des Art. 5 Abs. 1 S. 1 GG, kein brauchbares Abgrenzungskriterium. Denn er übersieht, dass die Beeinflussung des öffentlichen Diskurses geradezu Motiv und Zweck der Meinungsfreiheit ist.26 Daneben erschließt sich auch nicht, wie sich eine Abgrenzung zu aktivem Campaigning rechtfertigen sollte. Wenn sich etwa eine Partei im Wahlkampf auf Social Media fokussiert und ihr Wahlkampfteam entsprechend besetzt, tut sie das ebenfalls mit dem Ziel, die Wahrnehmung des Diskurses in sozialen Netzwerken zu beeinflussen. In diesem Zusammenhang darf nicht übersehen werden, dass Social Bots auch fungieren könnten, um eine gewisse Waffengleichheit zwischen kleineren Parteien oder NGOs und personal- bzw. finanzstärkeren Akteuren herzustellen.

3. Rechtswidrigkeit komplexer Bots

Aus dem Gesagten folgt indes nicht, dass Social Bots nur im Falle rechtsverletzender oder strafbarer Inhalte rechtswidrig sein können. Vielmehr zeigt sich bei genauerer Betrachtung der technischen Abläufe komplexerer Social Bots, dass Tatbestände des Urheberrechtsgesetzes erfüllt sein können.

Dabei kann nicht auf das Aufrufen der Webseite über den Browser oder die Installation der jeweiligen App abgestellt werden. Denn die Accounts, auf die der Social Bot zugreift, werden wie oben dargelegt über die Programmierschnittstelle angesteuert. Dazu ist eine Installation der jeweiligen App nicht erforderlich. Daher kann hier offen bleiben, welche Relevanz diese Handlungen haben.

a) Zugriff auf „Streams“ als Funktionsvoraussetzung komplexer Bots

Bei jenen Social Bots, die auf das Verhalten anderer Nutzer reagieren, können sich Ansatzpunkte aufgrund der Zwischenspeicherung von „Streams“ ergeben. Bei den Streams handelt es sich, vereinfacht gesagt, um Datenpakete. Die darin enthaltenen Daten entsprechen dem, was dem („echten“) Nutzer nach dem Login angezeigt würde, also insbesondere einer Aneinanderreihung von Beiträgen anderer Nutzer.

Diese Streams werden von Twitter über die Programmierschnittstellen zur Verfügung gestellt, um es Dritten zu ermöglichen, auf sie zur Umsetzung gewollter Automatisierungsvorgänge zuzugreifen.

Hierbei ist von Streams im Plural die Rede, weil über verschiedene Programmierschnittstellen verschiedene Streams abgerufen werden können. Unter anderem gibt es einen für jeden Nutzer individuellen „User Stream“. Daneben besteht ein so genannter Public Stream, der die Gesamtheit aller öffentlichen Daten enthält, die auf Twitter vorhanden sind.

Diesen Datensatz ruft der Social Bot ab und analysiert ihn, um auf neue Trends oder einzelne Nutzerbeiträge zu reagieren, etwa durch „Retweeten“ oder Kommentieren. Zu dieser Analyse ist in technischer Hinsicht mindestens eine Zwischenspeicherung des Streams im Arbeitsspeicher erforderlich. Vorschriften des Urheberrechtsgesetzes können dann verletzt werden, wenn es sich um einen Stream handelt, der als Datenbankwerk iSd. § 4 Abs. 2 S. 1 UrhG oder als Datenbank iSd. § 87 a Abs. 1 S. 1 UrhG zu qualifizieren ist und dessen Nutzung nicht im Einklang mit den Nutzungsbedingungen der Plattform (bei Twitter heißen diese Automatisierungsregeln) steht.

b) Schutz der „Streams“ als Datenbank bzw. Datenbankwerk

Das Urheberrechtsgesetz schützt nicht nur einzelne Werke. Schutzgegenstand kann auch die konkrete Zusammenstellung verschiedener Elemente als Datenbank nach § 87a Abs. 1 S. 1 UrhG bzw. als Datenbankwerk iSd. § 4 Abs. 2 UrhG sein. Die beiden Rechte, Leistungsschutzrecht an einer Datenbank einerseits und das Urheberrecht an einem Datenbankwerk andererseits, bestehen unabhängig voneinander mit verschiedenem Schutzgegenstand, wobei ersteres das Ergebnis ihrer Investitionsleistung schützt, während letzteres das Ergebnis einer persönlichen geistigen Schöpfung durch Auswahl und Anordnung einzelner Elemente zum Gegenstand hat.27 Beide können bei den von den Nutzern sozialer Netzwerke generierten Inhalten einschlägig sein.28

aa) Datenbank, § 87a, 87b UrhG

Datenbanken sind besonders geschützt, wenn es sich um eine Sammlung von Werken, Daten oder anderen unabhängigen Elementen handelt, die systematisch oder methodisch angeordnet und einzeln mit Hilfe elektronischer Mittel oder auf andere Weise zugänglich sind und deren Beschaffung, Überprüfung oder Darstellung eine nach Art oder Umfang wesentliche Investition erfordert.

  • i. Sammlung von unabhängigen Elementen, die einzeln zugänglich sind

Der „Stream“ stellt eine Sammlung von Daten dar. In ihm wird eine Vielzahl von Tweets gebündelt. Die Tweets stellen auch unabhängige Elemente dar. Die Unabhängigkeit ist gegeben, wenn sich die Elemente voneinander trennen lassen, ohne hierdurch in ihrem Informationsgehalt beeinträchtigt zu werden.29 Die Besonderheit von „Tweets“ besteht gerade darin, eigenständige Aussagen auf 140 Zeichen zu komprimieren.

  • ii. Systematische Anordnung und einzelne Zugänglichkeit

Die Elemente sind überdies systematisch bzw. methodisch angeordnet und einzeln zugänglich. Das erfordert insbesondere, dass sie einzeln recherchierbar sind, wobei sich die Anordnung auch erst über den Zugang durch eine Software ergeben kann.30 Twitter stellt eine Programmierschnittstelle zum gezielten Suchen und Abrufen von Tweets nach umfangreichen Suchkriterien zur Verfügung. Ferner besteht die Möglichkeit, den Stream mittels „request parameter“ zu beeinflussen. So können beispielsweise nur die Tweets in einer bestimmten Sprache oder eines bestimmten Nutzers aufgefunden und abgerufen werden.

  • iii. Wesentliche Investition

Schließlich liegt auch eine wesentliche Investition iSd. § 87a Abs. 1 S. 1 UrhG vor. Dabei ist auf die Beschaffung, Überprüfung oder Darstellung der Datenbankelemente abzustellen. Zu berücksichtigen sind sowohl sichtende, beobachtende und auswertende Tätigkeiten, als auch die Kosten des Ermittelns und Aufbereitens von Daten, der dazu eingesetzten Computerprogramme sowie der kontinuierlichen Pflege und Aktualisierung der Datenbestände einschließlich der Personalkosten.31 Nicht zu berücksichtigen sind hingegen Kosten der Erzeugung der in der Datenbank enthaltenen Daten.32

Die Kosten für die Beschaffung der Daten stellen eine Investition in diesem Sinne dar. Darunter fallen nämlich auch Kosten für Software, die es Dritten ermöglicht, Daten in eine Datenbank einzugeben.33 Zwar sind die Daten als solche für Twitter kostenlos, da die Tweets von den Nutzern eingestellt werden. Entsprechend kann nur auf die weitere Verarbeitung abgestellt werden.34 Twitter trägt jedoch die Kosten für die Bereitstellung der Infrastruktur, die es den Nutzern ermöglicht, eigene Inhalte zu erstellen.

Auch die Kosten für die Überprüfung des Datenbankinhalts sind hier vom Begriff der Investition erfasst. Dazu zählen Kosten, die bei der Kontrolle der vorhandenen Daten während des Betriebes entstehen bzw. bevor diese in die Datenbank eingestellt werden.35 Die von den Nutzern eingestellten Tweets werden laufend überprüft. So erfolgt bei entsprechender Meldung etwa eine Überprüfung auf sog. sensible Inhalte, bei denen jeder Nutzer selbst festlegen kann, ob ihm diese angezeigt werden sollen. Daneben arbeitet Twitter an Tools, die Tweets beleidigenden oder missbräuchlichen Inhalts als wenig relevante Inhalte einstufen.

Schließlich ist auch die Darstellung des Inhalts der Datenbank als relevante Investition anzusehen. Davon erfasst sind sowohl die Kosten der Webserver36 als auch die für die Erstellung der Abfragesysteme erforderlichen Personalkosten.37 In der Bereithaltung der Webserver und der kontinuierlichen Arbeit daran, die Tweets so zu klassifizieren, dass sie möglichst dem Interesse des jeweiligen Nutzers entsprechen, liegt praktisch das Kerngeschäft Twitters.

Diese Investitionen sind auch wesentlich. Das ist immer dann anzunehmen, wenn Sie nicht ganz unbedeutend, da nicht von jedermann zu erbringen, sind.38 Wenngleich sich nicht im Einzelnen feststellen lässt, welcher der oben benannten Punkten welche Kosten verursacht, darf bei Twitter unterstellt werden, dass die Beobachtung und Auswertung der Tweets, sowohl darauf, was gerade „trending“ ist, aber auch die Löschung rechtswidriger Inhalte, die Kennzeichnung „sensibler Inhalte“, die Evaluierung der Benutzerfreundlichkeit der individuell ausgewählten Tweets etc. erheblicher finanzieller Mittel bedarf. Berücksichtigt man, dass bei Twitter die Kosten für Forschung und Entwicklung von ca. 80 Millionen USD im Jahr 2011 auf über 800 Millionen USD im Jahr 2016 gestiegen sind,39 ist auch wenn nur ein Bruchteil dieser Kosten in die tatsächliche Pflege der Datenbank fließt, von erheblichen Investitionen auszugehen.

  • iv. Verletzungshandlung, § 87b Abs.1 S.2 UrhG

Die Verletzungshandlung des § 87b Abs.1 S liegt in der Vervielfältigung der Datenbank insgesamt oder eines nach Art oder Umfang wesentlichen Teiles der Datenbank. Dabei steht die Vervielfältigung eines unwesentlichen Teils jener eines wesentlichen Teils gem. § 87b Abs.1 S.2 UrhG gleich, wenn sie wiederholt und systematisch erfolgt und einer normalen Auswertung der Datenbank zuwiderläuft oder die berechtigten Interessen des Datenbankherstellers unzumutbar beeinträchtigt werden.

Eine Vervielfältigungshandlung liegt vor. Wie bereits dargelegt, können die fortgeschrittenen Funktionen von Social Bots, also solche, die sich als Reaktion auf Beiträge anderer Nutzer äußert, nur durch eine Analyse der Streams erfolgen. Diese Analyse wiederum kann nur funktionieren, wenn die Streams gespeichert werden, mindestens also im Zwischenspeicher reproduziert werden.40

Jeder einzelne Stream stellt eine selbständige Datenbank dar.41 Entsprechend liegt im Zugriff auf User-Streams eine Zwischenspeicherung der gesamten Datenbank vor. Auch beim Zugriff auf den Public-Stream, der „[…]the public data flowing through Twitter. Suitable […] for data mining“ enthält und daher die sinnvolle Variante darstellt, wenn der Social Bot auf „trending topics“ reagieren soll.

Auch wenn nicht der gesamte Stream abgerufen wird, liegt in jedem Fall eine wiederholte, systematisch erfolgende Vervielfältigung iSd. § 87b Abs. 1 S. 2 UrhG vor. Diese ist gegeben, wenn nach und nach in Erfüllung eines Gesamtplans kleine Teile nutzbar gemacht werden, die sich insgesamt zu einem wesentlichen Teil hochrechnen.42 Unterstellt man, dass der Social Bot so programmiert ist, keine wesentlichen Informationen zu verpassen bzw. auf festgelegte Themen auf eine bestimmte Weise zu reagieren, ist eine permanente Auswertung der stetig wachsenden Datenbank erforderlich, sodass früher oder später ein wesentlicher Teil ausgewertet ist.

Diese beeinträchtigt auch die berechtigten Interessen des Datenbankherstellers unzumutbar. Dabei ist eine wirtschaftliche Betrachtungsweise erforderlich. Eine unzumutbare Beeinträchtigung ist angesichts des investitionsschützenden Charakters des Datenbankschutzes insbesondere dann anzunehmen, wenn deren Amortisation beeinträchtigt ist.43 Durch den Bot-Einsatz ist der Fortbestand des gesamten Dienstes gefährdet. Zwar führen die gefälschten Nutzerprofile zunächst zumindest scheinbar zu einer Erhöhung der Nutzer und damit der Werbeeinnahmen. Mittel- bis langfristig droht jedoch ein gegenteiliger Effekt: Wenn der Dienst nämlich für „echte“ Nutzer uninteressant wird, weil er von Social Bots infiltriert ist, kehren sich die Nutzer ab und mit ihnen die Werbeeinnahmen. Der Reiz sozialer Netzwerke besteht gerade darin, dass Menschen miteinander kommunizieren. Werden diesen jedoch nach dem Login keine von Menschen geposteten Inhalte, sondern zu einem nicht unerheblichen Teil Bot-Nachrichten angezeigt, verliert der Dienst für Nutzer den Reiz.

bb) Datenbankwerk, § 4 Abs.2 S.1 UrhG

  • i. Werkscharakter

Daneben sind zumindest die jeweiligen „User Streams“ als Datenbankwerke zu qualifizieren. Die dazu erforderliche geistige Schöpfung, durch die sich das Datenbankwerk von der bloßen Datenbank unterscheidet, liegt in der Auswahl und Anordnung bereits bestehender Elemente.44 Die Auswahl und Anordnung erfolgt durch die für jeden User Stream individuelle Zusammenstellung der für ihn relevanten Tweets. In die Auswahl fließen verschiedene Kriterien wie die Interessen des jeweiligen Nutzers, welchen Personen er folgt, sein Standort, die Aktualität des Themas sowie der Zeitraum, über den das Thema bereits „trending“ ist. Daran ändert sich auch nichts angesichts des Umstandes, dass die praktische Umsetzung der Anordnung nicht durch menschliche, redaktionelle Auswahl, sondern aufgrund eines Algorithmus zustande kommt. Computergenerierte Werke sind nämlich dann schutzfähig, wenn die Gestaltung des Erzeugnisses noch auf einen geistigen Schöpfungsakt zurückgeführt werden kann, wenn also die Maschine nur Hilfsmittel ist.45

Das ist hier der Fall. Der Schöpfungsakt ist der eigentlichen Umsetzung vorgeschaltet und liegt in der Auswahl und Gewichtung der relevanten Faktoren, die zur Zusammenstellung des konkreten User Streams herangezogen werden. Diese Auswahl erfolgt nicht beliebig. Vielmehr bestimmt sie über Erfolg oder Misserfolg eines sozialen Netzwerks. Erfolgreich wird das soziale Netzwerk nämlich nur sein, wenn dem jeweiligen Nutzer Beiträge angezeigt werden, von denen er sich angesprochen fühlt und die für ihn hilfreich sind. Gerade durch die Filterung der zunächst unübersichtlichen Datenflut aller möglichen Beiträge anderer Nutzer wird das für Twitter charakteristische Nutzererlebnis erzeugt.

Auch die zur Annahme einer persönlichen Schöpfung weiterhin erforderliche Eigentümlichkeit ist gegeben. Diese ist anzunehmen, wenn die Sammlung in ihrer Struktur, die durch Auswahl oder Anordnung des Inhalts der Datenbank geschaffen worden ist, einen individuellen Charakter hat.46 Eine bestimmte Gestaltungshöhe ist hierbei nicht erforderlich.47 Anders als etwa bei einem Telefonbuch48 oder Musik-Chartlisten49 gibt es für den dem einzelnen Nutzer angezeigten Stream keine zwingende oder von vornherein feststehende Anordnung, die nur geringen Spielraum für individuelle Gestaltung ließe. Vielmehr sind die Entscheidungsprozesse, die dieser Auswahl zugrunde liegen, sehr komplex. Nicht nur das Ob, sondern auch das Wie der oben beschriebenen Faktoren fließt hier ein. Es ist gerade diese konkrete Anordnung, die die Eigentümlichkeit des Netzwerks ausmacht und das es – neben eher gestalterischen Eigenheiten – von anderen Netzwerken abgrenzt.

  • ii. Unzulässigkeit der Vervielfältigungshandlung, § 55a UrhG

Aufgrund der Qualifikation als Datenbankwerk iSd. § 4 Abs. 2 UrhG ist die Zulässigkeit von Vervielfältigungshandlungen nach § 55a UrhG zu beurteilen. Demnach ist dem berechtigten Benutzer die Vervielfältigung der Datenbank gestattet, soweit dies für dessen übliche Benutzung erforderlich ist. Dabei stellt die Zwischenspeicherung im Arbeitsspeicher eine hinreichende Vervielfältigungshandlung dar.50

Von den nach § 55a UrhG zur Vervielfältigung Berechtigten kommt bei der online-Nutzung alleine die Variante desjenigen infrage, „dem ein Datenbankwerk aufgrund eines mit dem Urheber oder eines mit dessen Zustimmung mit einem Dritten geschlossenen Vertrags zugänglich gemacht wird“, da die ersten beiden Varianten auf die Existenz eines körperlichen Vervielfältigungsstücks abstellen.51

Entsprechend ist die Frage der üblichen Benutzung in diesem Sinne anhand der vertraglichen Vereinbarung zu beurteilen.52 Wie dargelegt, verbietet Twitter zwar nicht grundsätzlich die automatisierte Nutzung des Dienstes. Vielmehr legen die Automatisierungsregeln die Bedingungen für die Verwendung von Bots fest. Deren Akzeptanz ist Voraussetzung der Nutzung des Dienstes. Diese Regeln verbieten das automatisierte Posten von Tweets zu trendigen Themen, das Betreiben von Accounts für sich überschneidende Anwendungsfälle sowie automatisiertes Antworten auf und Erwähnen von anderen Nutzern. Untersagt sind darin also genau jene Anwendungsformen von Social Bots, die im politischen Bereich typischerweise Anwendung finden.

Der Betreiber des Bots verstößt somit gegen die Lizenzbedingungen und überschreitet den von § 55a UrhG gesteckten Rahmen zulässiger Vervielfältigungshandlungen.

c) zivilrechtliche Folgen, § 97 UrhG

Soweit die Verletzungshandlungen in Deutschland vorgenommen werden, ergeben sich deren zivilrechtlichen Folgen aus § 97 UrhG.53 Demnach begründen Verstöße gegen das Urheberrecht und verwandte Schutzrechte zunächst einen Beseitigungs- und Unterlassungsanspruch (§ 97 Abs. 1 UrhG). Im Falle vorsätzlichen oder fahrlässigen Handelns ergibt sich ein Schadensersatzanspruch (§ 97 Abs. 2 UrhG). Rechtfertigungsgründe dürften sich in den dargestellten Konstellationen schwerlich begründen lassen.

Die Aktivlegitimation läge in derartigen Fällen ausschließlich bei Twitter als Verletztem. Insoweit muss es wohl eher als unwahrscheinlich angesehen werden, dass die hier aufgeworfenen Fragen jemals durch ein deutsches Gericht entschieden werden. Denn aus praktischer Sicht besteht für Twitter kaum ein Bedürfnis, sich dieser Instrumente zu bedienen. Schneller und zielführender ist es aus deren Sicht, die jeweiligen Accounts schlicht zu deaktivieren.

d) Strafrechtliche Folgen, §§ 106, 108 UrhG

§ 106 Abs. 1 UrhG sieht den Straftatbestand der unerlaubten Verwertung urheberrechtlich geschützter Werke vor. Datenbanken werden nach § 108 Abs.1 Nr.8 UrhG durch den Straftatbestand des unerlaubten Eingriffs in verwandte Schutzrechte geschützt. Für beide sieht § 108a UrhG eine erhöhte Strafe im Falle gewerbsmäßigen Handelns vor.

aa) Antragsdelikt

Soweit kein gewerbsmäßiges Handeln vorliegt, handelt es sich bei den Straftatbeständen gem. § 109 UrhG um relative Antragsdelikte. Wie bereits zu den zivilrechtlichen Folgen dargelegt, ist fraglich, ob es für Twitter sinnvoll ist, derartige Probleme auf dem Rechtsweg zu lösen, wenn technische Maßnahmen einfacher umzusetzen sind.

Allerdings kann an die Stelle des Strafantrages gem. § 109 Abs. 1 UrhG auch die Bejahung eines besonderen öffentlichen Interesses durch die Strafverfolgungsbehörde treten. Je nach Konstellation wird sich dieses, insbesondere in Wahlkampfzeiten vor wichtigen Bundes- oder Landtagswahlen, durchaus bejahen lassen.

bb) Verstoß gegen § 55a UrhG nur bei AGB Verletzung

Nicht übersehen werden darf dabei, dass ein Vorgehen nach § 106 UrhG an die Verletzung des § 55a UrhG und damit, wie oben dargelegt, an einen Lizenzverstoß anknüpft. Möglich wäre ein Vorgehen entsprechend nur, wenn die jeweilige Plattform die Nutzung von Bots verbietet bzw. die Bots selbst gegen die AGB verstoßen. Dass dies nicht ohne weiteres der Fall ist, zeigt sich daran, dass es sich Facebook etwa in Punkt 3.2 seiner Nutzungsbedingungen vorbehält, den automatisierten Zugriff zu erlauben. Auch bei Twitter ist das „Automatisieren mehrfacher Accounts zu Zwecken, die Twitter als nützlich für die Gemeinschaft einstuft,… erlaubt“.

cc) Identifizierung der Betreiber kaum möglich

Auch in praktischer Hinsicht wird es extrem schwierig sein, den oder die Verwender der Social Bots zu identifizieren und ausfindig zu machen. Die unmittelbar Handelnden bleiben häufig anonym oder agieren aus dem Ausland. Ansatzmöglichkeiten bieten sich freilich, wenn der Verwender offen kundtut, Social Bots einzusetzen oder einsetzen zu wollen.

Nach oben

V. Fazit

Die Untersuchung hat gezeigt, dass entsprechend aufkommender Bestrebungen, die Materie der Social Bots einer gesetzlichen Regelung zuzuführen, durchaus bereits Instrumentarien bestehen, gegen diese vorzugehen. Neben der praktischen Schwierigkeit, dass der Betreiber in vielen Fällen nicht zu ermitteln ist, ist aber auch fraglich, ob der hier aufgezeigte Weg rechtspolitisch gangbar ist.

Zwar ruft der Einsatz von Social Bots wohl zu Recht Skepsis hervor, da er schwerlich mit den tradierten Vorstellungen von Wahlkampf und Meinungsmarkt in Einklang zu bringen ist. Allerdings kann das Urheberrechtsgesetz langfristig nicht der Regelungsort für Maßnahmen zur Aufrechterhaltung der Debattenkultur sein. Dies gilt insbesondere angesichts dessen, dass die Rechtswidrigkeit von der Frage abhängt, ob das jeweils genutzte Medium in seinen allgemeinen Geschäftsbedingungen die Verwendung von Social Bots verbietet bzw. eine Erlaubnis im Einzelfall erteilt hat. Eine Erlaubnis kann aber gerade im Interesse eines sozialen Netzwerks liegen, wenn dieses – etwa in der Startup-Phase – zunächst um jeden Preis die Nutzerzahlen steigern möchte. Vor noch größere Schwierigkeiten wäre man gestellt, wenn das jeweilige soziale Netzwerk eigene politische Präferenzen umsetzt und einzelnen Akteuren ausdrücklich erlaubt wird, Bots einzusetzen, anderen aber nicht.

Angesichts dessen ist es begrüßenswert, dass sich zunächst das Büro für Technikfolgenabschätzung beim Deutschen Bundestag mit der Materie auseinandersetzt. Erforderlich ist die Formulierung eines eindeutigen Willens durch den Gesetzgeber auf dieser Grundlage. Die unter III. dargelegten Anwendungsszenarien und die unter IV. 2. c) gezeigten Abgrenzungsschwierigkeiten zu sonstigen Aktivitäten in der Debatte bzw. dem Wahlkampf zeigen, dass ein Einschreiten nur maßvoll erfolgen sollte.

Nach oben

Rechtsanwalt Oliver WolfAutorenhinweis: Rechtsanwalt Oliver Wolf, LL.M. hat Jura in Trier und Norwich studiert. Sein Tätigkeitsschwerpunkt liegt im Urheber- und Medienrecht. Oliver ist seit Juli 2017 Teil des Teams der Kanzlei Plutte.

  1. Ferrara/Varol/Davis/Menczer/Flammini, Communications of the ACM, 7/2016, 96.
  2.  Micklitz/Schirmbacher,in: Spindler/Schuster, Recht der elektronischen Medien, 14. Teil, § 4 UWG, Rn. 338.
  3.  Ferrara/Varol/Davis/Menczer/Flammini, aaO.
  4.  Soweit nicht anders dargelegt, bezieht sich die Darstellung im Folgenden auf Twitter.
  5.  Gainous/Wagner, Tweeting to Power: the social media revolution in American politics, 2014, S. 74.
  6.  Hegelich, Invasion der Meinungs-Roboter, 2016, S. 2.
  7. Hegelich, aaO. S. 3.
  8.  Dazu ausführlich Hawker, The developer’s guide to social programming: building social context using Facebook, Google friend connect, and the Twitter API, 2011, S.1 ff; s. auch unten IV. 3. a).
  9.  Hegelich, aaO. S. 4 ff.
  10. Hegelich, aaO. S. 4.
  11. Siehe dazu Pariser, The Filter Bubble, 2011, S. 10 ff.; Drexl, ZUM 2017, 529,531 f.; Paal/Hennemann, ZRP 2017, 76
  12. Hegelich, aaO. S. 3.
  13.  Auf die hierbei bereits bestehenden oder in Zukunft auftauchenden datenschutzrechtlichen Fragestellungen soll hier nicht eingegangen werden.
  14.  Baumanns, BKR 2016, 366 ff.
  15.  Insoweit unzutreffend Dankert/Dreyer, K & R 2017, 73, 75, die den Standpunkt vertreten, Social Bots entfalteten ihr Potenzial dort, wo sie über die technisch vermittelte Steuerung ihrer Aktivitäten täuschen.
  16.  Dazu und zur verfassungsrechtlichen Einordnung Dankert/Dreyer, K&R 2017, 73; Steinbach, ZRP 2017, 101, 103.
  17.  Siehe dazu etwa BVerfG, Beschl. v. 25.10.2012 – 1 BvR 901/11, NJW 2013, 217, 218; MüKoBGB/Rixecker, Anh. § 12, Rn. 170 ff.
  18. Differenzierend Liesching, MMR 2010, 309, 312 f.
  19.  LG Frankfurt a.M., Urteil vom 31.05.2006, Az. 2-06 O 288/06, MMR 2006, 766; LG Köln, Urteil vom 06.09.2006, Az. 28 O 178/06, MMR 2006, 412 (415); Ohst/Wandtke, in: Wandtke/Bullinger, PK-UrhR, § 95a UrhG, Rn. 71.
  20. Freilich kann das Nutzerprofil gehackt werden. Das müsste jedoch im Vorfeld des eigentlichen Bot-Einsatzes geschehen und hat mit der Software als solcher nichts zu tun.
  21.  BGH, Urteil vom 23.06.2009, Az. VI ZR 196/08, MMR 2009, 608 (612f.) – Spickmich.de; den grundrechtlichen Schutz automatisierter Meinungsäußerungen zutreffend bejahend Dankert/Dreyer, K&R 2017, 73, 75.; Milker, „Bot-Armeen“ als Meinungsmacher im Wahlkampf
  22. EuGH, EuZW 2016, 821, 826.
  23.  Kind/Bovenschulte/Ehrenberg-Silies/Jetzke/Weide, Thesenpapier zum öffentlichen Fachgespräch »Social Bots – Diskussion und Validierung von Zwischenergebnissen« am 26. Januar 2017 im Deutschen Bundestag, S.4
  24. St. Rspr. s. etwa BGH, NJW 2003, 1308, 1309 f.
  25.  BVerfGE 93, 266, 289 – „Soldaten sind Mörder“
  26. Dankert/Dreyer, K&R 2017, 73, 74 m.w.N.
  27.  BGH, Urteil vom 24.05. 2007, Az. I ZR 130/04, GRUR 2007, 685, 687 f. – Gedichteliste I.
  28. Reinemann/Remmertz, ZUM 2012, 216, 220.
  29.  Thum/Hermes, in: Wandtke/Bullinger, PKUrhR, § 87a UrhG, Rn. 12.
  30.  Vohwinkel, in: BeckOK UrhR, § 87a UrhG, Rn. 15 f.
  31.  Vohwinkel, in: BeckOK UrhR, § 87a UrhG, Rn. 20.
  32. Witte, in: Auer-Reinsdorf/Conrad, Handbuch IT- und Datenschutzrecht, § 6 Rn. 29.
  33.  Vohwinkel, in: BeckOK UrhR, § 87a UrhG, Rn. 26.
  34.  Wiebe, in: Spindler/Schuster, Recht der elektronischen Medien, § 87a UrhG, Rn. 13.
  35.  Vohwinkel, in: BeckOK UrhR, § 87a UrhG, Rn. 37f.
  36.  Witte, in: Auer-Reinsdorf/Conrad, Handbuch IT- und Datenschutzrecht, § 6 Rn. 29.
  37.  Thum/Hermes, in: Wandtke/Bullinger, § 87a UrhG, Rn. 38.
  38.  Vohwinkel, in: BeckOK UrhR, § 87a UrhG, Rn. 23.
  39.  Twitter, Jahresbericht 2016, S. 38
  40. Hawker, aaO, S. 75.
  41.  Vohwinkel, in: BeckOK UrhR, § 87a UrhG, Rn. 17, Witte, in: Auer-Reinsdorff/Conrad, Handbuch IT- und Datenschutzrecht, § 6, Rn. 15.
  42.  Vohwinkel, in: BeckOK UrhR, § 87b UrhG, Rn. 15, a.A.: Wiebe, in: Spindler/Schuster, Recht der elektronischen Medien, § 87b UrhG, Rn. 31.
  43.  Dreier, in: Dreier/Schulze, UrhG, § 87b Rn. 16.
  44.  V. Gerlach, in Kilian/Heussen, Computerrechts-Handbuch, Teil 5, Rechtsschutz für Sammelwerke, Datenbankwerke und Datenbanken, Rn. 8.
  45.  Schulze, in: Dreier/Schulze, § 2 UrhG, Rn. 8.
  46.  Ahlberg, in: BeckOK UrhR, § 4 UrhG Rn. 32.
  47.  BGH, Urteil vom 24.05.2007, Az. I ZR 130/04, GRUR 2007, 685 (687 f.) – Gedichteliste I.
  48.  BGH, Urteil vom 06.05.1999, Az. I ZR 199/96, GRUR 1999, 923 (924) – Tele-Info-CD.
  49.  BGH, Urteil vom 21.07.2005, Az. I ZR 290/02, GRUR 2005, 857 (858) – Hitbilanz.
  50. Grübler, in: BeckOK UrhR, § 55a UrhG, Rn.5.
  51. Dreier, in: Dreier/Schulze, § 55a UrhG, Rn.5.
  52.  Ebd. Rn.7.
  53.  Dreier/Specht, in: Dreier/Schulze, § 97 UrhG, Rn. 10.

Autor:

Oliver Wolf ist angestellter Rechtsanwalt der Kanzlei Plutte.

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.


Kostenlose Ersteinschätzung