„Surface Links und Deep Links“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[ungesichtete Version][ungesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
etwas überarbeitet und zusammengeführt
(8 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
Ein '''Deep Link''' (deutsch: ''"tiefe Verknüpfung"'') ist ein [[Hyperlink|Link]], der nicht auf die [[Homepage]] einer [[Webpräsenz|Internetpräsenz]] verweist, sondern unmittelbar auf eine ganz bestimmte, "tiefer liegende" Unterseite einer Website. Dies kann zum Beispiel eine bestimmte [[Datei]], ein einzelner Artikel oder ein offenes [[Verzeichnis]] sein.
Ein '''Deep Link''' (deutsch: ''"tiefe Verknüpfung"'') ist ein [[Hyperlink|Link]], der nicht auf die [[Homepage]] einer [[Webpräsenz|Internetpräsenz]] verweist, sondern unmittelbar auf eine ganz bestimmte, "tiefer liegende" Unterseite einer Website. Dies kann zum Beispiel eine bestimmte [[Datei]], ein einzelner Artikel oder ein offenes [[Verzeichnis]] sein.


==Sachverhalt==
Die Verwendung von ''Deep Links'' ist umstritten, da in Webseiten mit [[Frame (HTML)|Frames]] per ''Deep Link'' einzelne Frames aus dem Angebot herausgelöst werden können. Fehlt dann auf der entsprechenden Einzelseite ein Hinweis auf das Gesamtangebot, können Böswillige unter Umständen die dort enthaltenen Informationen als ihre eigenen ausgeben. Dies trifft aber insbesondere nur dann zu, wenn nur bestimmte Frames einer fremden Seite referenziert werden.
Die Verwendung von ''Deep Links'' ist umstritten, da in Webseiten mit [[Frame (HTML)|Frames]] per ''Deep Link'' einzelne Frames aus dem Angebot herausgelöst werden können. Fehlt dann auf der entsprechenden Einzelseite ein Hinweis auf das Gesamtangebot, können Böswillige unter Umständen die dort enthaltenen Informationen als ihre eigenen ausgeben. Dies trifft aber insbesondere nur dann zu, wenn nur bestimmte Frames einer fremden Seite referenziert werden.


Der [[BGH]] hat in seinem Urteil vom 17. Juli 2003 (Az: I ZR 259/00; Pressemitteilung 96/03) aber entschieden, dass das Setzen von ''Deep Links'' nicht gegen die [[Urheberrecht|urheberrechtlichen]] Befugnisse der verlinkten Anbieter verstößt. Auch eine unlautere Ausbeutung von Anbieter-Leistungen durch das Setzen von ''Deep Links'' wurde verneint. Ausdrücklich offen gelassen hat der BGH allerdings die Frage eines Urheberrechtsverstoßes, ''"wenn der Linksetzende dazu technische Sperren umgehe"'' (Zitat aus Pressemitteilung 96/03 des BGH).
Der [[BGH]] hat in seinem Urteil vom 17. Juli 2003 (Az: I ZR 259/00; Pressemitteilung 96/03) aber entschieden, dass das Setzen von ''Deep Links'' nicht gegen die [[Urheberrecht|urheberrechtlichen]] Befugnisse der verlinkten Anbieter verstößt. Auch eine unlautere Ausbeutung von Anbieter-Leistungen durch das Setzen von ''Deep Links'' wurde verneint. Ausdrücklich offen gelassen hat der BGH allerdings die Frage eines Urheberrechtsverstoßes, ''"wenn der Linksetzende dazu technische Sperren umgehe"'' (Zitat aus Pressemitteilung 96/03 des BGH).

Mit diesen technischen Sperren ist die Datei: "robots.txt" gemeint, die im Wurzelverzeichnis des Webservers liegt. Diese Datei: "robots.txt" erklärt den Suchmaschinenrobotern detailiert, ob der Eigentümer des Webservers eine Indizierung durch Suchmaschinen wünscht oder nicht wünscht. Durch die richtige Programmierung von "robots.txt" kann der Webmaster die Erstellung von Deep Links durch Suchmaschinen zulassen oder verhindern.


Bei der Benutzung von [[Suchmaschine]]n ist zu beachten, dass diese in der Regel direkt auf die entsprechenden Unterseiten eines Angebotes verweisen, in denen die gewählten Suchwörter enthalten sind. Verwendet die entsprechende Seite Frames, kann es zu einem Verlust von Teilen des Designkonzepts einschließlich Steuerung und ergänzender Angaben, wie [[Copyright]]-Hinweisen oder Werbung kommen. Um dies zu vermeiden, setzen [[Webdesign]]er häufig [[Java|Java-Script]]s ein, die von der geladenen Seite aus die korrekte Komplettseitenansicht wiederherstellen. Viele Fachleute warnen jedoch aufgrund dieser Problematik vor dem Nutzen von Frames.
Bei der Benutzung von [[Suchmaschine]]n ist zu beachten, dass diese in der Regel direkt auf die entsprechenden Unterseiten eines Angebotes verweisen, in denen die gewählten Suchwörter enthalten sind. Verwendet die entsprechende Seite Frames, kann es zu einem Verlust von Teilen des Designkonzepts einschließlich Steuerung und ergänzender Angaben, wie [[Copyright]]-Hinweisen oder Werbung kommen. Um dies zu vermeiden, setzen [[Webdesign]]er häufig [[Java|Java-Script]]s ein, die von der geladenen Seite aus die korrekte Komplettseitenansicht wiederherstellen. Viele Fachleute warnen jedoch aufgrund dieser Problematik vor dem Nutzen von Frames.


Das sogenannte "''Deeplinking''" steht terminologisch auch mit dem [[Deep Web]] in Zusammenhang.
Das sogenannte "''Deeplinking''" steht terminologisch auch mit dem [[Deep Web]] in Zusammenhang.

== Problematik ==
Wie im Fall von des Aktenzeichens AZ: I ZR 259/00; Pressemitteilung 96/03 richtig erkannt wurde, sind nicht passwortgeschützte Inhalte für das maschinelle oder menschliche Lesen jederzeit frei verfügbar und nutzbar, was der ursprünglichen Aufgabenstellung bei der Erfindung des [[ARPANET|ARPANET's]], dem Vorläufer des Internets entspricht. Die Beachtung der Datei "robots.txt" ist aus der Aufgabenstellung des [[ARPANET|ARPANET's]], heraus nicht zwingend, da es genug technische Systeme gibt die ein ungewolltes "Auslesen" von Daten verhindern. Siehe htaccess oder Pay per Click, etc. Die Beachtung der Datei robots.txt ist demnach als pure Höflichkeit, ohne rechtliche Folgen bei der Nichtbeachtung, zu verstehen.


== Siehe auch ==
== Siehe auch ==
Zeile 15: Zeile 21:
* [http://www.linksandlaw.de/urteil3.htm Urteil des BGH] zur Zulässigkeit von Deep Links
* [http://www.linksandlaw.de/urteil3.htm Urteil des BGH] zur Zulässigkeit von Deep Links
* [http://www.useit.com/alertbox/20020303.html ''Deep Linking is Good Linking'' von Jakob Nielsen] (eng.)
* [http://www.useit.com/alertbox/20020303.html ''Deep Linking is Good Linking'' von Jakob Nielsen] (eng.)
* [http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?Gericht=bgh&Sort=3&Datum=2003&Art=pm&anz=96&pos=0&nr=26553&id=1058712084.84 Deeplink zu bundesgerichtshof.de mit detailierter Urteilsbegründung zum Fall Az: I ZR 259/00; Pressemitteilung 96/03]
* [http://www.netzeitung.de/internet/248242.html Interview der NETzeitung] mit der Beklagten Person im Fall Az: I ZR 259/00; Pressemitteilung 96/03


[[en:Deep linking]]
[[en:Deep linking]]

Version vom 13. Oktober 2005, 04:02 Uhr

Ein Deep Link (deutsch: "tiefe Verknüpfung") ist ein Link, der nicht auf die Homepage einer Internetpräsenz verweist, sondern unmittelbar auf eine ganz bestimmte, "tiefer liegende" Unterseite einer Website. Dies kann zum Beispiel eine bestimmte Datei, ein einzelner Artikel oder ein offenes Verzeichnis sein.

Sachverhalt

Die Verwendung von Deep Links ist umstritten, da in Webseiten mit Frames per Deep Link einzelne Frames aus dem Angebot herausgelöst werden können. Fehlt dann auf der entsprechenden Einzelseite ein Hinweis auf das Gesamtangebot, können Böswillige unter Umständen die dort enthaltenen Informationen als ihre eigenen ausgeben. Dies trifft aber insbesondere nur dann zu, wenn nur bestimmte Frames einer fremden Seite referenziert werden.

Der BGH hat in seinem Urteil vom 17. Juli 2003 (Az: I ZR 259/00; Pressemitteilung 96/03) aber entschieden, dass das Setzen von Deep Links nicht gegen die urheberrechtlichen Befugnisse der verlinkten Anbieter verstößt. Auch eine unlautere Ausbeutung von Anbieter-Leistungen durch das Setzen von Deep Links wurde verneint. Ausdrücklich offen gelassen hat der BGH allerdings die Frage eines Urheberrechtsverstoßes, "wenn der Linksetzende dazu technische Sperren umgehe" (Zitat aus Pressemitteilung 96/03 des BGH).

Mit diesen technischen Sperren ist die Datei: "robots.txt" gemeint, die im Wurzelverzeichnis des Webservers liegt. Diese Datei: "robots.txt" erklärt den Suchmaschinenrobotern detailiert, ob der Eigentümer des Webservers eine Indizierung durch Suchmaschinen wünscht oder nicht wünscht. Durch die richtige Programmierung von "robots.txt" kann der Webmaster die Erstellung von Deep Links durch Suchmaschinen zulassen oder verhindern.

Bei der Benutzung von Suchmaschinen ist zu beachten, dass diese in der Regel direkt auf die entsprechenden Unterseiten eines Angebotes verweisen, in denen die gewählten Suchwörter enthalten sind. Verwendet die entsprechende Seite Frames, kann es zu einem Verlust von Teilen des Designkonzepts einschließlich Steuerung und ergänzender Angaben, wie Copyright-Hinweisen oder Werbung kommen. Um dies zu vermeiden, setzen Webdesigner häufig Java-Scripts ein, die von der geladenen Seite aus die korrekte Komplettseitenansicht wiederherstellen. Viele Fachleute warnen jedoch aufgrund dieser Problematik vor dem Nutzen von Frames.

Das sogenannte "Deeplinking" steht terminologisch auch mit dem Deep Web in Zusammenhang.

Problematik

Wie im Fall von des Aktenzeichens AZ: I ZR 259/00; Pressemitteilung 96/03 richtig erkannt wurde, sind nicht passwortgeschützte Inhalte für das maschinelle oder menschliche Lesen jederzeit frei verfügbar und nutzbar, was der ursprünglichen Aufgabenstellung bei der Erfindung des ARPANET's, dem Vorläufer des Internets entspricht. Die Beachtung der Datei "robots.txt" ist aus der Aufgabenstellung des ARPANET's, heraus nicht zwingend, da es genug technische Systeme gibt die ein ungewolltes "Auslesen" von Daten verhindern. Siehe htaccess oder Pay per Click, etc. Die Beachtung der Datei robots.txt ist demnach als pure Höflichkeit, ohne rechtliche Folgen bei der Nichtbeachtung, zu verstehen.

Siehe auch