EasySnoop

Gehe zu Seite 1, 2, 3  Weiter

Worklogs EasySnoop Kommentare

Sonntag, 18. Juli 2010 um 01:48 Uhr von frontalier

Zitat:

Soso... Und wo genau schützt DEIN Programm dann die Kinder vor solchen Seiten? Ich habe nämlich bisher nicht ein Wort von einem Internetfilter gelesen. Und die temporären Internetdateien zu filtern die NACH dem Besuch einer solchen Seite gespeichert erden dürfte entsprechend sinnfrei sein, da es dann schon zu spät ist.


EasySnoop ist nicht dazu gedacht, Google`s fehlenden Jugendschutz bei seinen Inhalten zu kompensieren. Das habe ich auch nie irgendwo gesagt. Aber EasySnoop kann u.a. die Folgen dessen sichtbar machen, woran Google sicherlich seinen großen Anteil hat, und symptomatisch für die freie Verfügbarkeit fast aller Inhalte steht.

Wenn ich weiss, dass Google wissentlich im großen Stil auf illegale Seiten verlinkt, dann darf ich das ja wohl noch schreiben. Wer Beweise will soll mir eine PN schreiben, dann schicke ich gerne ein paar Wörter. Oder man wartet, bis die geplante Google App einem direkt die Möglichkeit gibt, sich diese Google Links sichtbar zu machen.

Zitat:
Blödes Beispiel: Ich wette mit dir, dass man in einem Wörterbuch einige Wörter finden kann, die für kleine Kinder unpassend sind. Trotzdem wirst du sicher niemals auf die Idee kommen und sagen "Das Wörterbuch ist böse... Verbietet es."


Bei Google klicke ich auf den Link uns sehe illegale, pornographische Bilder und Videos, keine sachlichen Erklärungen. Der Vergleich ist leider wirklich ein blödes Beispiel, wie der der Gelben Seiten auch. Die Regeln der realen Welt finden im Internet keine Anwendung, wieso werden dann solche Beispield angeführt um Google in Schutz zu nehmen?
Ich drehe den Spiess gern mal um: An der Tür zu einem Porno Schuppen steht ein garstiger Türsteher, der durch seine Türluke linst, wenns klopft. Und dann fragt er mit böser, tiefer Stimme: "Wie alt bist DU?" - Das kleine Kind sagt "18" und es kann rein. Das findet sinngemäß im Internet statt. Und das Jugenschutzgesetz im Verhältnis reale Welt / Internet: das ist so, als wenn ich es in einem Stadtteil durchsetze, und in allen anderen gilt es nicht. Wo fahre ich dann mit dem Rad hin, und was ist der Effekt des Gesetzes?

Zitat:
Außerdem: Deine Kinderpornos findest du so schnell nicht unter Google. Jedenfalls nicht, solange du nur nach "normalen" Pornoseiten suchst. Nach Kinder- und Tierpornos muss man schon SEHR bewusst suchen. Und Kinder, die nach sowas suchen umgehen sowieso jegliche Filter.


Yep, Kinderpornos hat Google meines Wissen schon sehr lange nicht mehr gelistet, dass war sogar Ihnen wohl zu "UN-PC" [Vermutung]. Tiersex und Gewaltsex ist allerdings genauso einfach zu finden wie alles andere.

Zitat:
Und allgemein ist offenes Reden unter Eltern und Kindern in der Erziehung besser als nachträgliches Spionieren. Alleinschon weil das ein großer Vertrauensbruch ist.


Es ist doch schön, wenn Eltern so ein Verhältnis haben und mehr als die übliche Menge und Qualität an Neugier-Pornos auch nicht vorhanden sind. Ich hatte auch nicht vor, EasySnoop als Grundausstattung für alle Eltern zwingend empfehlen zu wollen.

Spricht eigentlich was dagegen, wenn man so ein Verhältnis hat, das mit seinem Kind zusammen mal zu prüfen? Fiel mir gerade in dem Kontext mal so ein.

Und abschliessend noch: es nützt eben nichts, wenn man sich selber optimal kümmert, und das eigene Kind dann Opfer von Umständen wird, wohl sich nicht optimal gekümmert wurde. In weiweit man dass beeinflussen kann ist ein umfangreiches Thema, aber den Jugenschutz im wichtigesten Medium überhupt mal wieder zur Anwendung zu bringen, das wäre ja mal ein Anfang.

Samstag, 17. Juli 2010 um 23:29 Uhr von M0rgenstern

Zitat:

Zitat:
Aber wenn dich das so sehr stört, dann nutze doch einfach ihre Dienste nicht


Was nützt das den Kindern? Ich glaube Du hast die grundsätzliche Problematik nicht verstanden, es geht mir nicht um persönliche Befindlichkeiten. Wenn ich Google aus Protest nicht mehr benutze ist damit niemandem geholfen. Ausserdem stolpern Kinder auch gerne ungewollt mit völlig normalen Suchbegriffen über illegale Seiten.


Soso... Und wo genau schützt DEIN Programm dann die Kinder vor solchen Seiten? Ich habe nämlich bisher nicht ein Wort von einem Internetfilter gelesen. Und die temporären Internetdateien zu filtern die NACH dem Besuch einer solchen Seite gespeichert erden dürfte entsprechend sinnfrei sein, da es dann schon zu spät ist.

Außerdem: Du diffamierst Google hier von vorne bis hinten. Da kann ich mich einem meiner Vorredner nur anschließen: Google ist als Suchmaschine erstmal nur ein Werkzeug. UNd wie das eingesetzt wird hängt vom Nutzer ab.
Blödes Beispiel: Ich wette mit dir, dass man in einem Wörterbuch einige Wörter finden kann, die für kleine Kinder unpassend sind. Trotzdem wirst du sicher niemals auf die Idee kommen und sagen "Das Wörterbuch ist böse... Verbietet es."
Ich könnte das ganze jetzt weiterführen mit Feuerzeugen, Messern, Magie. . . Alles nur Werkzeuge. Wozu man sie nutzt ist jedem Nutzer überlassen. Und du wirst sicher nicht das Küchenmesser für einen Mord verantwortlich machen.

Außerdem: Deine Kinderpornos findest du so schnell nicht unter Google. Jedenfalls nicht, solange du nur nach "normalen" Pornoseiten suchst. Nach Kinder- und Tierpornos muss man schon SEHR bewusst suchen. Und Kinder, die nach sowas suchen umgehen sowieso jegliche Filter.

Und nochmal zu deinem Programm: Die Idee dahinter, Kinder zu schützen mag sehr ehrenhaft sein. Aber: Welcher Jugendliche/ Welches Kind würde ein solches Programm freiwillig ausprobieren? Jemand der weiß, dass er solche Dateien auf dem PC hat wird dies nicht tun. Und Kinder die davon nichts wissen werden das Programm auch kaum nutzen.
Also bleibt nur noch eine Zielgruppe übrig: Paranoide Eltern. Und sowas find ich grausam.
Ganz ehrlich. Fast jeder Junge der in die Pubertät kommt guckt sich sowas früher oder später mal mit Kollegen an. Und Eltern die dann ihren Kindern hinterherspionieren.. Hallo? Die waren auch mal in dem Alter. Und die waren da sicher nicht besser. Da warens dann keine Killerspiele und Pornos sondern "Aufklärungsfilme" und "Der weiße Hai" oder "Frankenstein" oder so. In einem direkten Vergleich sind die Pornos und Spiele von heute sicher "schlimmer", jedoch muss man immer die Zeit betrachten. Oben genannte alte Filme waren damals eine Wucht was die Effekte anging. Heute lacht man eher drüber.
Und allgemein ist offenes Reden unter Eltern und Kindern in der Erziehung besser als nachträgliches Spionieren. Alleinschon weil das ein großer Vertrauensbruch ist.


So far...

Lg, M0rgenstern

Samstag, 17. Juli 2010 um 16:05 Uhr von frontalier

Zitat:

Um ehrlich zu sein: Erkennung durch Dateinamen ist sinnlos. Von daher MUSS eine Analyse von Bildern und Videos her.


Erstmal sorry für die falschen Quote-Tags *hüstel*

Die echte Erkennung des Inhalts und die Variante mit den Hash-Werten sind natürlich technisch gesehen spannend und ich will das auch für später keines Falls ausschliessen. Aber: solche großen Erweiterungen anzugehen, bevor das jetzige Programm nicht ausprogrammiert ist und sein Potential noch nicht ausgeschöpft hat wäre kontraproduktiv. Folgendes passiert jetzt für die nächsten Betas:

- Archiv-Inhalte werden erfasst
- Suchwörter erhalten u.a. Klassen und werden bei der Erkennung differenziert gehandhabt
- es kommt eine Whitelist für harmlose Wörter, in denen Suchwörter vorkommen
- die Intelli Search erfasst auffällige Dateien auch ohne Dateinamen-Prüfung

Das Prinzip war immer, dass der Anwender die Funde manuell prüfen muss. Dementsprechend muss EasySnoop vor allen Dingen weniger Fehlfunde generieren und bisher nicht erfasste Dateien erkennen.

Samstag, 17. Juli 2010 um 13:16 Uhr von Starwar

(Folgende Zeilen sind weder beleidigend noch persönlich gemeint. Sie sollen auch nicht die Leistung die du hier erbringst schmälern)
Um ehrlich zu sein: Erkennung durch Dateinamen ist sinnlos. Von daher MUSS eine Analyse von Bildern und Videos her.
Aber so finde ich es besser. Die FlasePositives geben den besorgten Eltern den (oft wohl nicht richtigen) Eindruck alles wäre OK.

Samstag, 17. Juli 2010 um 12:37 Uhr von frontalier

[quote]1. Hab ich nicht gesagt, das ich weiterführende Informationen per Email schicken würde.
2. Habe ich von Videoerkennung, nicht von Bildererkennung geredet.
3. Habe ich soetwas auf der Cebit gesehen, und mich mit den Leuten unterhalten (da ich selber in dem Semester KI belegt hatte kannte ich mich ein wenig damit aus) [\quote]

1. habe ich so auch nicht behauptet / 2. Da meinten wir das gleiche, Videos kann man nur anhand der Frames analysieren, also der Einzelbilder / 3. ok, innovatives bei der CeBit - das ist dann natürlich schon die oberklasse

[quote]Im Prinzip könnte man das aber auch auf ganz normale Bilder anwenden. Bei der Unterscheidung Porno / nicht Porno denke ich, dass es sogar besser funktionieren könnte als bei Sportarten[\quote].

Ja, das stimmt. Die Idee ist eigentlich so spannend, dass ich mich da am liebsten gleich mal dran versuchen würde. Tatsächlich könnte das Erkennen von "Formen" in einzelnen Bildern schon reichen.
Aber EasySnoop so wie es ist zu optimieren hat Vorrang. Danke für die Anregung!

[quote]Die Schuldigen sind doch eindeutig die Betreiber der Websites, die ohne wirkliche altersverifikation Pornographie zugänglich machen. ...Das es den Leuten, welche dahinter stehen, ziemlich egal ist, weil man innerhalb von 30 Min. ne neue Domain bekommen kann, wird einfach ignoriert. Meiner Meinung nach ist das einfach nur dumm. [\quote]

Ja, aber nehmen wir mal an, in einem düsteren SexShop in Deiner Stadt findest du zufällig einen Kinderporno aus Timbuktu - ist Dein Impuls dann, man müsse die Erzeuger im Herstellerland belangen, und nicht den Shop? Ist die Anwendung des Jugendschutzgesetzes in den hiesigen Medien bekämpfenswerte Zensur?
Und was die Gelben Seiten betrifft: das Bereitstellen illegaler Inhalte erfolgt bei Google wissentlich und ganz direkt. Ob ein Strip-Club nicht gesetzeskonform sein Geschäft betreibt, oder man bei Google nach einem Klick Tierpornographie konusmieren kann, was auch so vorgertigt zum Finden indexiert ist - da sehe ich aber einen grundlegenden Unterschied.

Ich gebe Google nicht die Schuld an allem Übel des Netzes, aber sie sind selber Teil dieses Übels - und das teilweise völlig unnötig.

[quote]Für kleine Kinder reicht doch ein lokal installierter Internetfilter, um diese vor pornographischen Überraschungen zu schützen.
Für ältere Kinder, die sich aktiv für Sexbildchen interesseren, gibt es sowieso kein Mittel sie davon abzuhalten[\quote]

Das stimmt insofern, als dass ich ja schon sagte, wenn man Inhalte gut genug versteckt, ist EasySnoop völlig machtlos. Aber: EasySnoop soll hier nicht auf Knopfdruck ein Problem lösen, schon gar nicht falsche Erziehung, sondern grundsätzlich ein Problem sichtbar machen können.

Samstag, 17. Juli 2010 um 10:30 Uhr von Firstdeathmaker

"Da ich keine Mail zum Thema KI Erkennung der Bilder bekommen habe, gehe ich davon aus dass es hier auch nichts relevantes zum Umsetzen gibt. "

1. Hab ich nicht gesagt, das ich weiterführende Informationen per Email schicken würde.
2. Habe ich von Videoerkennung, nicht von Bildererkennung geredet.
3. Habe ich soetwas auf der Cebit gesehen, und mich mit den Leuten unterhalten (da ich selber in dem Semester KI belegt hatte kannte ich mich ein wenig damit aus)

Das ganze hat, wenn ich mich richtig erinnere, über ein System aus Kernel Vector Machine und probalistischer Inferenz funktioniert, das mit 600 YouTube-Videos zum Thema Sport trainiert wurde. Am Ende war die KI in der Lage, schon nach etwa 10 Sekunden die richtige Sportart zu erkennen (aus 50 verschiedenen), je länger die Erkennung gelaufen ist, umso sicherer wurde das richtige Ergebnis als am wahrscheinlichsten anerkannt.

Als input für die KI wurden dabei nicht alle Pixel eines Bildes einzeln zugeführt, sondern immer 16x16 pixel zusammen betrachtet und voranalysiert. So z.B. die Farbe, Farbdivergenz, Helligkeit, Veränderungen zum vorangegangenen frame etc.

Im Prinzip könnte man das aber auch auf ganz normale Bilder anwenden. Bei der Unterscheidung Porno / nicht Porno denke ich, dass es sogar besser funktionieren könnte als bei Sportarten (z.B. ist Skifahren, Eiskunstlaufen und Eishockey für die KI recht schwer zu unterscheiden).


http://de.wikipedia.org/wiki/S...or_Machine
http://www2.inf.fh-rhein-sieg....eNetze.pdf



Und nochmal zum Thema Google: Ich finde Google trifft hier überhaupt keine Schuld. Es ist ja nur ein "Werkzeug". Die Schuldigen sind doch eindeutig die Betreiber der Websites, die ohne wirkliche altersverifikation Pornographie zugänglich machen. Deiner Argumentation nach müssten ja auch die gelben Seiten dafür haftbar gemacht werden, wenn ein Stripclub Minderjährige einlassen würde, welche den Club über die gelben Seiten gefunden haben.

Irgendwie sind doch alle Leute die nach "Zensur" und "Überwachung" schreien total dumm. Entweder man bekämpft die Quelle, oder man nimmt es halt hin. Ich meine Erwachsene, welche sich halt mal nen Porno anschauen wollen, und über Google danach suchen, weshalb sollten die das nicht finden dürfen?
Meiner Meinung nach ist das ganze Problem eindeutig auf die unterbesetzten Ermittlungsbehörden und Gerichte zurück zu führen: Weil diese sowieso schon überfordert sind, können diese sich nicht mehr effektiv darum kümmern, wenn irgendwo eine Internetseite gegen das Recht verstößt und angezeigt wurde. Statt ordentlich zu ermitteln und die Verursacher zur Verantwortung zu ziehen, möchte man die Domain einfach nur wegzensieren. Das es den Leuten, welche dahinter stehen, ziemlich egal ist, weil man innerhalb von 30 Min. ne neue Domain bekommen kann, wird einfach ignoriert. Meiner Meinung nach ist das einfach nur dumm.


Ich kann zwar Eltern verstehen, die ihre Kinder schützen wollen, aber meiner Meinung nach sollte das doch auch anders zu erledigen sein:

Für kleine Kinder reicht doch ein lokal installierter Internetfilter, um diese vor pornographischen Überraschungen zu schützen.
Für ältere Kinder, die sich aktiv für Sexbildchen interesseren, gibt es sowieso kein Mittel sie davon abzuhalten. Wo ein Wille ist, da auch ein Weg. Was hält diese z.B. davon ab, sich ne CD mit Pornos von nem Freund zu besorgen? Wollen die Eltern jetzt wirklich die ganze DVD-Sammlung nacheinander in den PC einlegen und auf Pornos untersuchen? Wenn Eltern soetwas machen, dann sind sie meiner Ansicht nach ziemlich gestört. Was wäre denn das Ergebnis? Die Eltern würden zu ihren Kindern gehen, diese ausschimpfen, und die Kinder/Jugendliche würden es trotzdem weiter machen.
Wie schon an anderer Stelle gesagt wurde, ist Aufklährung, mit den Kindern über das Thema sprechen, doch viel besser. Von daher finde ich so ein Schnüffeltool wie das hier vorgestellte auch nicht wirklich gut.

Re

Samstag, 17. Juli 2010 um 03:40 Uhr von frontalier

Ich werde das Google-Bashing hier zurückfahren, aber grundsätzliche Dinge passend zur Thematik, das muss(te) schon sein. Dazu abschliessend noch, was ich nicht im Raum stehen lassen möchte:

Zitat:

Aber wenn dich das so sehr stört, dann nutze doch einfach ihre Dienste nicht


Was nützt das den Kindern? Ich glaube Du hast die grundsätzliche Problematik nicht verstanden, es geht mir nicht um persönliche Befindlichkeiten. Wenn ich Google aus Protest nicht mehr benutze ist damit niemandem geholfen. Ausserdem stolpern Kinder auch gerne ungewollt mit völlig normalen Suchbegriffen über illegale Seiten.

Zitat:
Google ist also daran schuld, dass man Pornographie findet, wenn man danach sucht? ...ich verstehe nicht, warum es Googles Aufgabe sein sollte, das Internet von allen möglicherweise illegalen und pornographischen Inhalten zu filtern. Es ist eine Suchmaschine, und wer suchet, der findet.


Falsch. Bzw., da bin ich komplett anderer Meinung. Es ist schon bitter, dass Urteile, wie das pro-Compuserve in den 90er, dazu geführt haben, dass ein Gewohnheitsrecht Einzug gehalten hat im Internet könne jeder machen was er will und muss keine Verantwortung übernehmen oder sich an geltendes Recht halten. Der Jugendschutz findet bei Google keine Anwendung. Dann kann man das Gesetz auch abschaffen, oder bei dessen Geltungsbereich eindeutig das Internet ausklammern [anpassen an die Realtität].

Google bietet verlinkten Content an, verdient damit Geld - es ist die Aufgabe dieser Firma, sich dabei an geltendes Recht zu halten. Wenn ich in der realen Welt nach Pornographie suche, dann finde ich die, offiziell, mehr oder weniger nur in Sex-Shops, und als Kind komme ich da nicht rein, und illegales finde ich da auch nicht. Wenn doch reicht ein Anruf, und die Staatsmacht greift ein. Leider ist der IST-Zustand jetzt 15 Jahre erwachsen und wird scheinbar gar nicht mehr hinterfragt.

Zitat:
Also erstmal: Die GUI und die Darstellung der Ergebnisse ist super gelungen. So stell ich mir Userbility vor.

Danke, das tut gut. Scheinbar hat ja auch niemand Probleme oder Bugs gefunden, das ist bei dem was dahinter steckt, zumindest für mich als Hobby Programmierer, ein schöner Erfolg.

Zitat:
Aber ich halte von dem Programm wenig.

Schade LOL, aber zu der Thematik mehr im Projekt Thread.

danke @Starwar für die Auflsitung der Funde/Begriffe, mit der Klasse für Allerwelstbegriffe und der Intelli-Search wird sich das Problem wohl demnächst lösen lassen.

Mittwoch, 14. Juli 2010 um 10:31 Uhr von Starwar

Also erstmal: Die GUI und die Darstellung der Ergebnisse ist super gelungen. So stell ich mir Userbility vor.
Aber ich halte von dem Programm wenig. Um es kurz zu fassen: Wer sowas braucht, der hat kein Vertrauen in die eigene Erziehung.
Zu den Kategorien: Nur Sex? Wie wär's mit Gewalt alleine?
Auch noch kurz zu den Suchergebissen (Die Suche wurde auf einer Partition durchgeführt, auf der nur Programme installiert sind):
DATEIEN
flickanimation.avi, babyblue.png (winMovieMaker), vintage.png (winDVDmaker), stocks_searching_strip.png (Vista Aktien Sidebar), docked_thunderstorm.png, undocked_few-showers.png (Wetter Sidebar), 32. genre-kids.jpg, 33. genre-kidsm.jpg, 34. genre-teens.jpg (iTunes Genere-Bilder), adonetentitydatamodelcsharp.zip
ORDNER
designer, welcomewindow.nib (diverse iTunes-Ordner in verschiedenen Sprachversionen), microsoft analysis services, document parts, presentation designs, privateassemblies, designertemplates, adonetentitydatamodelcsharp.zip, stripes

Alle haben so 20-50%, stocks 80%, keins 100%

MFG

Mittwoch, 14. Juli 2010 um 07:50 Uhr von Noobody

Google ist also daran schuld, dass man Pornographie findet, wenn man danach sucht? Dann sollte man am besten auch alle anzüglichen Wörter aus dem Wörterbuch streichen, es könnte ja mal ein Kind darauf stossen!

Aber nun mal ganz ohne Scherz, ich verstehe nicht, warum es Googles Aufgabe sein sollte, das Internet von allen möglicherweise illegalen und pornographischen Inhalten zu filtern. Es ist eine Suchmaschine, und wer suchet, der findet.
Statt dass man also versucht, sein Kind vor allen pornographischen Inhalten zu schützen, und ihm täglich einschärft, das Sexualität etwas ganz ganz böses ist, kann man sich auch einfach mal mit dem Kind hinsetzen und ihm erklären, warum es noch ein wenig zu jung für solches Zeug ist. Etwas einfach zu verbieten stärkt den Reiz davon nur. Das konnte ich bei einem Klassenkameraden sehr gut feststellen, der mit enormer krimineller Energie sein Jugendschutzprogramm knackte und triumphierend jedes pornographische Bild konsumierte, dass er finden konnte.

Und nur mal so unter uns: Statt dass sie Beschwerde nach Beschwerde einreichen, könnten sich ja auch einfach ein paar der erbosten Eltern hinsetzen, diese illegalen Seiten (die man ja scheinbar so leicht findet) aufspüren und beim entsprechenden Webhoster melden. Dann sind sie nämlich wirklich weg, statt dass sie in Zensursula-Manier einfach nicht angezeigt werden.

Mittwoch, 14. Juli 2010 um 00:42 Uhr von M0rgenstern

Frontalier...
Sorry, aber wird das ganze hier jetzt ne Anti Google Kampagne?

Ja, Google spielt BigBrother. Und ja Google ist eine Datenkrake. Aber wenn dich das so sehr stört, dann nutze doch einfach ihre Dienste nicht. Ich weiß ehrlich gesagt nicht, was dein letzter Kommentar jetzt noch mit dem Programm hier im WL zu tun hat.

Sorry, aber das ist echt langsam nicht nur OffTopic sondern echt total unnötig. Ich glaube, wie wissen alle, dass man Google wohl nicht trauen kann. Ist jetzt kein Angriff gegen dich, also nicht falsch verstehen.

Lg, M0rgenstern

Gehe zu Seite 1, 2, 3  Weiter


Kommentar schreiben

Titel:
Text: