Lexikon der Argumente


Philosophische Themen und wissenschaftliche Debatten
 
[englisch]

Screenshot Tabelle Begriffes

 

Finden Sie Gegenargumente, in dem Sie NameVs…. oder….VsName eingeben.

Erweiterte Suche:
Suchbegriff 1: Autor oder Begriff Suchbegriff 2:Autor oder Begriff

zusammen mit




Der gesuchte Begriff oder Autor findet sich in folgenden 2 Einträgen:
Begriff/
Autor/Ismus
Autor
Autor
Eintrag
Eintrag
Literatur
Literatur
Suchmaschinen Pariser I 41
Suchmaschinen/Filter/Personalisierte Suche/Google/Pariser: Google entwickelte eine Reihe von Personalisierungsalgorithmen, die Suchende in Gruppen einteilen. Bis 2008 wurde eine Reihe davon patentiert. Google gibt in seiner Patentanmeldung ein Beispiel: Menschen, die Haifischzähne sammeln und solche, die das nicht tun, erhalten verschiedene Auswahlen von Suchergebnissen, wenn sie nach „großen weißen Schneidezähnen“ suchen.(1)
I 45
Facebook/EdgeRank/Pariser: Facebook macht es ähnlich. Selbst wenn man nur 100 Freunde hat, erhält man zu viel Stoff, um alles lesen zu können. Facebooks Lösung war EdgeRank, dass jede Interaktion von Usern registriert. Der Algorithmus ist kompliziert, die Idee beruht auf drei Faktoren (2) 1.Grad der Verbundenheit: wie viel Zeit man für die Interaktion mit einer bestimmten Person aufwendet
2. Gewichtung der Inhalte: welche angebotenen Neuigkeiten werden ausgewählt?
3. Aktualität: vor kurzen gepostete Mitteilungen werden stärker berücksichtigt.

1. Patentvolltext, aufgerufen am 10.12. 2010, http.//patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&u=%2Fnetahtml%2FPTO%2Fsearch-adv.htm&r=1&p=1&f=G&1=50&d=PTXT&S1=7,451,130.PN.&OS=pn/7,451,130&RS=PN/7,451,13,
2. Jason Kincaid, »EdgeRank: The Secret Sauce That Makes Facebook’s News Feed Tick«, TechCrunch-Blog, 22. 04. 2010, aufgerufen am 10.12. 2010, http://techcrunch.com/2010/04/22/facebook-edgerank.

Pariser I
Eli Pariser
The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think London 2012
Suchmaschinen Zittrain I 224
Suchmaschinen/Zittrain: Ort. Der Akt des Erstellens einer Suchmaschine, wie der Akt des Surfens selbst, ist etwas so Alltägliches, dass es schwer vorstellbar wäre, es als illegal zu betrachten - aber das heißt nicht, dass Suchmaschinen auf einer stärkeren Rechtsgrundlage beruhen als die Praxis, mit robots.txt zu bestimmen, wann eine Website kopiert und archiviert werden darf. (1) Erst vor kurzem, im Zuge von Googles Buchscanprojekt, haben Urheberrechtsinhaber wirklich begonnen, diese Art von Frage zu testen. (2) Diese Herausforderung hat sich beim Scannen von Papierbüchern ergeben, nicht von
I 225
Webseiten, da Google sie so vorbereitet, sie auf die gleiche Weise durchsuchbar zu machen, wie Google das Web indiziert hat. (3) Die langjährige Praxis des Webseiten-Kopierens, geleitet von robots.txt, machte diese Art der Indizierung unumstritten, auch wenn es theoretisch rechtlich unklar ist. Die dauerhafte Lektion von robots.txt ist, dass ein einfacher, grundlegender Standard, der von Menschen guten Glaubens geschaffen wurde, einen langen Weg zur Lösung oder Vermeidung eines Problems mit starken ethischen oder rechtlichen Dimensionen gehen kann.
1. Google prevailed, on a particularly favorable fact pattern, against one author-plaintiff challenging the search engine’s copying and distribution of his copyrighted works. Field v. Google, 412 F. Supp. 2d 1106 (D. Nev. 2006) (finding Google’s copying and distribution of the copyrighted works through cached links to be a fair use on grounds that offering access through its cache serves important social purposes and transforms rather than supersedes the original author’s use).
2. See Complaint, McGraw-Hill Companies, Inc. v. Google, No. 05-CV-8881 (S.D.N.Y. Oct. 19, 2005).
3. See Complaint, Author’s Guild v. Google, No. 05-CV-8136 (S.D.N.Y. Dec. 20, 2005).

Zittrain I
Jonathan Zittrain
The Future of the Internet--And How to Stop It New Haven 2009