EasySnoop
Übersicht 

![]() |
Thunder |
![]() |
---|---|---|
Hallo,
schön, dass du uns dein erstes Projekt vorstellst, aber ich möchte dir einige konstruktive Kritik mitgeben. Ich habe das Programm runtergeladen und getestet und dabei kam ich dazu: 1. Das Programm ist sehr groß (sowohl Download- als auch Installierte Größe) 2. Installer sind hier sehr unbeliebt nimm lieber ein RAR- oder ZIP-Archiv 3. Ich würde dir empfehlen die ganze Suche nach Dateinamen rauszunehmen und durch die geplante Intelli-Search zu ersetzen. Ich habe 36 falsche Meldungen bekommen. Ein Beispiel: "massesimulator.zip" - weil da "asses" drinnen steht, kommt es auf die Liste :S Außerdem sind, wie ich das gesehen habe, auch falsche Suchwörter auf der Liste. ZB "vim" - so heißt auch ein einfaches Unix-Editor-Programm (es gibt auch ein DOS-Programm, das sich so nennt). 4. finde ich das Menü, das man sieht, wenn man ">>Ergebnis anzeigen" drückt, etwas zu kompliziert. 5. Das Hauptmenü ist sehr gut und übersichtlich Viel Erfolg! Thunder |
||
Meine Sachen: https://bitbucket.org/chtisgit https://github.com/chtisgit |
![]() |
Pummelie |
![]() |
---|---|---|
So, habe es auch angetestet, und anders als thunder mach ich mir ncht in die Hose ween solch ein paar Megabytes, wenn es über 50 währen könnte ich das ja verstehen aber so...
Das Programm an sich ist schön gestaltet und du solltest die Dateinamensuche nicht aufgeben, du könntest sie aber mit einer dateigrößensuche summieren. Leider gibt es einige Fehlfunde, welche aber durch die Vorschau und die %-Anzeige leicht als solches identifiziert werden können. Du hattest irrgendwie geschriebn das es auch illigales zeug findet (außer pornographie), das kann ich nicht bestätigen. |
||
It's done when it's done. |
![]() |
the FR3AKBetreff: |
![]() |
---|---|---|
Man könnte doch die Gruppen "Kindersex, Gewaltsex und Tiersex" in die Kategorie Pornographie einbinden und dafür noch nach "Killerspielen" (yaaay) und Raubkopien o.ä. suchen. |
![]() |
Pummelie |
![]() |
---|---|---|
Nach Raubcopieen suchen hört sich gut an, aber wie willst du das finden? man müsste sich zb. die genauen dateieigenschaften von jdem no-cd crack notieren und abgleichen, aeber schon an solche Informationen heran zu kommen wird nicht immer leicht. | ||
It's done when it's done. |
Omenaton_2 |
![]() |
|
---|---|---|
Ich habe das Programm nicht angeschaut, weil ich sowas nicht benötige und wahrscheinlich auch niemals benötigen werde, aber ich hätte eine Anmerkung.
Ist es denn so, daß du einfach nach Schlüßelwörter in Dateinamen suchst, die auf deiner schwarzen Liste stehen (weil sie auf verwerflichen Inhalt schließen lassen) ? Wenn ja, dann ist das recht nutzlos. Wieso sollte jemand ein 18+ Video unbedingt unter einem verräterischen Dateinamen abspeichern ? Man kann doch dem Video einen verkürzten Namen geben, wie "fv014" oder was Ähnliches. Dabei weiß derjenige der das abgespeichert hat wo das ist und was es ist, aber kein Programm kann Anhand des Namens das Video identifizieren. Die einzige funktionierende Lösung wäre eine extrem hoch entwickelte (was es vermutlich noch nicht gibt) Bilderkennungssoftware, das die Video und Bilder öffnet und versucht herauszufinden, was sie darstellen. Ich halte auch grundsätzlich nichts von solchen "Jugendschutzprogrammen". Ich finde, der einzige saubere und wirkunsvolle Weg für Jugendschutz ist, wenn die Eltern ihren Kindern eine gute Erziehung und Ausbildung sichern und sie über Probleme aufklären und sie durch Argumente überzeugen können sich von verwerflichen Inhalten fernzuhalten. Es ist auch allein Aufgabe und Pflicht der Eltern (und größerer Geschwister) das zu tun. Wenn sie das nicht tun, sind die Kinder verloren und dagegen hilft dann nichts mehr. |
![]() |
M0rgenstern |
![]() |
---|---|---|
Also, erstmal: Ich habe bisher nur den Worklog gelesen, das Programm aber noch nicht getestet.
Ich finde es sehr ehrenhaft, dass du Kinder vor solchen Dingen schützen willst. Und ja, du hast Recht, man muss sie davor schützen. Jedoch bin ich (ander als du scheinbar) gegen Zensur. Und Google macht diese Seiten nicht leicht zugängig. Wenn man mal bei Google nach ein paar der bekanntesten Pornoseiten (kostenlose) sucht, dann wird man viele davon über Google nicht direkt finden, wenn man einen Anschluss in Deutschland hat. Man sollte ja eigentlich erwarten, dass wenn man den Namen der Seite eingiebt, diese Seite als erste in Google auftaucht. Versuchs mal.... Jedoch entzieht sich mir ein wenig der Sinn deines Programmes, vielleicht habe ich es auch nicht ganz verstanden. Also, es sucht auf dme PC auf dem es installiert ist nach verdächtigen Dateien, die Pornos o.ä. enthalten könnten? Naja, schön und gut, aber wie soll das Kinder im INternet schützen? Es sucht ja nur lokal. Eine Sperre von bestimmten Websites finde ich da sicherer. Außerdem: Wenn diese Dateien auf dem PC sind, dann sicherlich mit Absicht. Und dann wurden diese wahrscheinlich schon längst gesehen von dem Nutzer (ob mit Absicht oder nicht sei mal dahingestellt). Korrigiere mich bitte, fall ich dich falsch verstanden habe. Liebe Grüße, M0rgenstern |
![]() |
Firstdeathmaker |
![]() |
---|---|---|
Hi,
eine Frage: Wieso wird überhaupt nach Wörtern im Dateinamen gesucht? Wäre es nicht viel effektiver, jede Datei die untersucht wird zu hashen, und mit hashes in einer Datenbank abzugleichen in der die hashes (möglichst vieler) bisher bekannter pornographischen Dateien stehen? Und was ist z.B. wenn die Dateien nicht einfach so auf der Platte liegen, sondern in .zip oder .rar? Man kann heutzutage übrigens schon durch KI feststellen lassen, ob es sich bei einem Video um Pornographie handelt. |
||
www.illusion-games.de Space War 3 | Space Race | Galaxy on Fire | Razoon Gewinner des BCC #57 User posted image |
![]() |
Xaymarehemals "Cgamer" |
![]() |
---|---|---|
Zitat: Dazu bald mehr auf der Homepage, die Anzeigen gegen Google sind in Vorbereitung, und dann können auch die Namen gennant werden.
Das verstehe ich nun nicht... Willst du Google nun nochmehr freiheiten wegnehmen? Irgendwann haben die auch genug und lassen dann einfach Europa nicht mehr an Google ran(haben sie soweit ich weiß bei China auch gemacht). Zitat: Killerspiele fand ich erstmal nicht so wichtig, solche Sachen sind dann auch eher was für die Roadmap.
*Hust* was? Die dinger heißen nicht Killerspiele sondern Egoshooter(Nur weil die Politiker es so nennen, ändert das nicht die bedeutung. Unter Killerspiele zählt nämlich alles, in denen du was tötest(Pacman, Mario, ...) ![]() |
||
Warbseite |
![]() |
Starwar |
![]() |
---|---|---|
Versteckte TrueCrypt Partition. So verstecke ich wichtige Daten. Andere ihre Pornos.
Da kommt keiner dran ![]() |
![]() |
frontalierBetreff: Google |
![]() |
---|---|---|
Vielleicht wird truecrypt ja noch sponsor, weil alle kiddies nach EasySnoop damit flächendeckend Ihre Pornos vor Ihren Eltern verstecken...
Die "Killerspiele" habe ich nur zitiert und die Tüddelchen vergessen. Google hat in China wieder bewiesen, wie schnell die Menschenrechte über Bord gehen wenn man Profit machen kann [wahre, amerikanische "Patrioten" halt]. Die Lizenz für Google seitens des China-Regimes wurde vor kurzem gerade verlängert. Google ist natürlich nicht die einzige Firma, die hier problematisch ist. Aber sie ist das beste Beispiel, weil sie sich weder damit rausreden kann, dass es zu teuer wäre die in Deutschland illegalen Seiten zu entfernen, noch dass es technisch nicht möglich ist [wenn man in China aber-millionen Seiten ausfiltert]. Es ist Ihnen schlichtweg egal, weil sie machen worauf sie Bock haben, und danach sollen die Länder halt ihre Gesetze an Google`s Firmenpolitik anpassen. |
![]() |
Pummelie |
![]() |
---|---|---|
Also meines wissens nach filter google ergebinisse das wird dann angezeigt wieviel seiten nicht angezeigt werden. | ||
It's done when it's done. |
![]() |
frontalierBetreff: Google Mythos |
![]() |
---|---|---|
Also zum einen gibbet die "Chilling Effects.org". Dies wird angezeigt, wenn Ergebnisse ausgefiltert werden, und ist ein Projekt verschiedener, amerikanischer Unis. Google selbst rührt hier meines Wissen keinen Finger.
Des weiteren hat Google sich der FSM angeschlossen [Freiwillige Selbstkontrolle Multimedia, fsm.de], bzw. ist glaube ich Grünfungsmitglied. Was sehr schlau ist - ich habe dort Beschwerden über Google eingereicht, die werden grundsätzlich nicht berücksichtigt. Kein neues Konzept! Google selbst räumt nicht in seinem Saustall auf. Nein, der Anwender muss höflich bei einer Prüfstelle betteln, selbst wenn der Fall eindeutig ist. Pornoseiten en Masse, die kein AVS [Age Verification System > Alters-Schutz-Sytem] benutzen, Gewalt- und Tier-Pornographie sind über Google frei zugänglich. Was relativ "komisch" ist, weil, wenn ich die Seiten verlinke mache ich mich sofort strafbar. Und wenn ich eine Google-Suche verlinke, mache ich dies ebenfalls. Kann ich doch wohl annehmen, dass Google selbst sich auch strafbar macht. Wenn ich hier einen konkreten Link á la "http://www.google.de/#hl=de&source=hp&q=SUCHWORT" posten würde, gehe ich davon aus, dass der Admin allein aus Selbstschutz den Link sofort entfernt. Ich hoffe ich bin nicht der einzige, den das leicht bis aktions-schwer irritiert. |
![]() |
M0rgenstern |
![]() |
---|---|---|
Frontalier...
Sorry, aber wird das ganze hier jetzt ne Anti Google Kampagne? Ja, Google spielt BigBrother. Und ja Google ist eine Datenkrake. Aber wenn dich das so sehr stört, dann nutze doch einfach ihre Dienste nicht. Ich weiß ehrlich gesagt nicht, was dein letzter Kommentar jetzt noch mit dem Programm hier im WL zu tun hat. Sorry, aber das ist echt langsam nicht nur OffTopic sondern echt total unnötig. Ich glaube, wie wissen alle, dass man Google wohl nicht trauen kann. Ist jetzt kein Angriff gegen dich, also nicht falsch verstehen. Lg, M0rgenstern |
![]() |
Noobody |
![]() |
---|---|---|
Google ist also daran schuld, dass man Pornographie findet, wenn man danach sucht? Dann sollte man am besten auch alle anzüglichen Wörter aus dem Wörterbuch streichen, es könnte ja mal ein Kind darauf stossen!
Aber nun mal ganz ohne Scherz, ich verstehe nicht, warum es Googles Aufgabe sein sollte, das Internet von allen möglicherweise illegalen und pornographischen Inhalten zu filtern. Es ist eine Suchmaschine, und wer suchet, der findet. Statt dass man also versucht, sein Kind vor allen pornographischen Inhalten zu schützen, und ihm täglich einschärft, das Sexualität etwas ganz ganz böses ist, kann man sich auch einfach mal mit dem Kind hinsetzen und ihm erklären, warum es noch ein wenig zu jung für solches Zeug ist. Etwas einfach zu verbieten stärkt den Reiz davon nur. Das konnte ich bei einem Klassenkameraden sehr gut feststellen, der mit enormer krimineller Energie sein Jugendschutzprogramm knackte und triumphierend jedes pornographische Bild konsumierte, dass er finden konnte. Und nur mal so unter uns: Statt dass sie Beschwerde nach Beschwerde einreichen, könnten sich ja auch einfach ein paar der erbosten Eltern hinsetzen, diese illegalen Seiten (die man ja scheinbar so leicht findet) aufspüren und beim entsprechenden Webhoster melden. Dann sind sie nämlich wirklich weg, statt dass sie in Zensursula-Manier einfach nicht angezeigt werden. |
||
Man is the best computer we can put aboard a spacecraft ... and the only one that can be mass produced with unskilled labor. -- Wernher von Braun |
![]() |
Starwar |
![]() |
---|---|---|
Also erstmal: Die GUI und die Darstellung der Ergebnisse ist super gelungen. So stell ich mir Userbility vor.
Aber ich halte von dem Programm wenig. Um es kurz zu fassen: Wer sowas braucht, der hat kein Vertrauen in die eigene Erziehung. Zu den Kategorien: Nur Sex? Wie wär's mit Gewalt alleine? Auch noch kurz zu den Suchergebissen (Die Suche wurde auf einer Partition durchgeführt, auf der nur Programme installiert sind): DATEIEN flickanimation.avi, babyblue.png (winMovieMaker), vintage.png (winDVDmaker), stocks_searching_strip.png (Vista Aktien Sidebar), docked_thunderstorm.png, undocked_few-showers.png (Wetter Sidebar), 32. genre-kids.jpg, 33. genre-kidsm.jpg, 34. genre-teens.jpg (iTunes Genere-Bilder), adonetentitydatamodelcsharp.zip ORDNER designer, welcomewindow.nib (diverse iTunes-Ordner in verschiedenen Sprachversionen), microsoft analysis services, document parts, presentation designs, privateassemblies, designertemplates, adonetentitydatamodelcsharp.zip, stripes Alle haben so 20-50%, stocks 80%, keins 100% MFG |
![]() |
frontalierBetreff: Re |
![]() |
---|---|---|
Ich werde das Google-Bashing hier zurückfahren, aber grundsätzliche Dinge passend zur Thematik, das muss(te) schon sein. Dazu abschliessend noch, was ich nicht im Raum stehen lassen möchte:
Zitat: Aber wenn dich das so sehr stört, dann nutze doch einfach ihre Dienste nicht
Was nützt das den Kindern? Ich glaube Du hast die grundsätzliche Problematik nicht verstanden, es geht mir nicht um persönliche Befindlichkeiten. Wenn ich Google aus Protest nicht mehr benutze ist damit niemandem geholfen. Ausserdem stolpern Kinder auch gerne ungewollt mit völlig normalen Suchbegriffen über illegale Seiten. Zitat: Google ist also daran schuld, dass man Pornographie findet, wenn man danach sucht? ...ich verstehe nicht, warum es Googles Aufgabe sein sollte, das Internet von allen möglicherweise illegalen und pornographischen Inhalten zu filtern. Es ist eine Suchmaschine, und wer suchet, der findet.
Falsch. Bzw., da bin ich komplett anderer Meinung. Es ist schon bitter, dass Urteile, wie das pro-Compuserve in den 90er, dazu geführt haben, dass ein Gewohnheitsrecht Einzug gehalten hat im Internet könne jeder machen was er will und muss keine Verantwortung übernehmen oder sich an geltendes Recht halten. Der Jugendschutz findet bei Google keine Anwendung. Dann kann man das Gesetz auch abschaffen, oder bei dessen Geltungsbereich eindeutig das Internet ausklammern [anpassen an die Realtität]. Google bietet verlinkten Content an, verdient damit Geld - es ist die Aufgabe dieser Firma, sich dabei an geltendes Recht zu halten. Wenn ich in der realen Welt nach Pornographie suche, dann finde ich die, offiziell, mehr oder weniger nur in Sex-Shops, und als Kind komme ich da nicht rein, und illegales finde ich da auch nicht. Wenn doch reicht ein Anruf, und die Staatsmacht greift ein. Leider ist der IST-Zustand jetzt 15 Jahre erwachsen und wird scheinbar gar nicht mehr hinterfragt. Zitat: Also erstmal: Die GUI und die Darstellung der Ergebnisse ist super gelungen. So stell ich mir Userbility vor.
Danke, das tut gut. Scheinbar hat ja auch niemand Probleme oder Bugs gefunden, das ist bei dem was dahinter steckt, zumindest für mich als Hobby Programmierer, ein schöner Erfolg. Zitat: Aber ich halte von dem Programm wenig.
Schade LOL, aber zu der Thematik mehr im Projekt Thread. danke @Starwar für die Auflsitung der Funde/Begriffe, mit der Klasse für Allerwelstbegriffe und der Intelli-Search wird sich das Problem wohl demnächst lösen lassen. |
![]() |
Firstdeathmaker |
![]() |
---|---|---|
"Da ich keine Mail zum Thema KI Erkennung der Bilder bekommen habe, gehe ich davon aus dass es hier auch nichts relevantes zum Umsetzen gibt. "
1. Hab ich nicht gesagt, das ich weiterführende Informationen per Email schicken würde. 2. Habe ich von Videoerkennung, nicht von Bildererkennung geredet. 3. Habe ich soetwas auf der Cebit gesehen, und mich mit den Leuten unterhalten (da ich selber in dem Semester KI belegt hatte kannte ich mich ein wenig damit aus) Das ganze hat, wenn ich mich richtig erinnere, über ein System aus Kernel Vector Machine und probalistischer Inferenz funktioniert, das mit 600 YouTube-Videos zum Thema Sport trainiert wurde. Am Ende war die KI in der Lage, schon nach etwa 10 Sekunden die richtige Sportart zu erkennen (aus 50 verschiedenen), je länger die Erkennung gelaufen ist, umso sicherer wurde das richtige Ergebnis als am wahrscheinlichsten anerkannt. Als input für die KI wurden dabei nicht alle Pixel eines Bildes einzeln zugeführt, sondern immer 16x16 pixel zusammen betrachtet und voranalysiert. So z.B. die Farbe, Farbdivergenz, Helligkeit, Veränderungen zum vorangegangenen frame etc. Im Prinzip könnte man das aber auch auf ganz normale Bilder anwenden. Bei der Unterscheidung Porno / nicht Porno denke ich, dass es sogar besser funktionieren könnte als bei Sportarten (z.B. ist Skifahren, Eiskunstlaufen und Eishockey für die KI recht schwer zu unterscheiden). http://de.wikipedia.org/wiki/S...or_Machine http://www2.inf.fh-rhein-sieg....eNetze.pdf Und nochmal zum Thema Google: Ich finde Google trifft hier überhaupt keine Schuld. Es ist ja nur ein "Werkzeug". Die Schuldigen sind doch eindeutig die Betreiber der Websites, die ohne wirkliche altersverifikation Pornographie zugänglich machen. Deiner Argumentation nach müssten ja auch die gelben Seiten dafür haftbar gemacht werden, wenn ein Stripclub Minderjährige einlassen würde, welche den Club über die gelben Seiten gefunden haben. Irgendwie sind doch alle Leute die nach "Zensur" und "Überwachung" schreien total dumm. Entweder man bekämpft die Quelle, oder man nimmt es halt hin. Ich meine Erwachsene, welche sich halt mal nen Porno anschauen wollen, und über Google danach suchen, weshalb sollten die das nicht finden dürfen? Meiner Meinung nach ist das ganze Problem eindeutig auf die unterbesetzten Ermittlungsbehörden und Gerichte zurück zu führen: Weil diese sowieso schon überfordert sind, können diese sich nicht mehr effektiv darum kümmern, wenn irgendwo eine Internetseite gegen das Recht verstößt und angezeigt wurde. Statt ordentlich zu ermitteln und die Verursacher zur Verantwortung zu ziehen, möchte man die Domain einfach nur wegzensieren. Das es den Leuten, welche dahinter stehen, ziemlich egal ist, weil man innerhalb von 30 Min. ne neue Domain bekommen kann, wird einfach ignoriert. Meiner Meinung nach ist das einfach nur dumm. Ich kann zwar Eltern verstehen, die ihre Kinder schützen wollen, aber meiner Meinung nach sollte das doch auch anders zu erledigen sein: Für kleine Kinder reicht doch ein lokal installierter Internetfilter, um diese vor pornographischen Überraschungen zu schützen. Für ältere Kinder, die sich aktiv für Sexbildchen interesseren, gibt es sowieso kein Mittel sie davon abzuhalten. Wo ein Wille ist, da auch ein Weg. Was hält diese z.B. davon ab, sich ne CD mit Pornos von nem Freund zu besorgen? Wollen die Eltern jetzt wirklich die ganze DVD-Sammlung nacheinander in den PC einlegen und auf Pornos untersuchen? Wenn Eltern soetwas machen, dann sind sie meiner Ansicht nach ziemlich gestört. Was wäre denn das Ergebnis? Die Eltern würden zu ihren Kindern gehen, diese ausschimpfen, und die Kinder/Jugendliche würden es trotzdem weiter machen. Wie schon an anderer Stelle gesagt wurde, ist Aufklährung, mit den Kindern über das Thema sprechen, doch viel besser. Von daher finde ich so ein Schnüffeltool wie das hier vorgestellte auch nicht wirklich gut. |
||
www.illusion-games.de Space War 3 | Space Race | Galaxy on Fire | Razoon Gewinner des BCC #57 User posted image |
![]() |
frontalier |
![]() |
---|---|---|
[quote]1. Hab ich nicht gesagt, das ich weiterführende Informationen per Email schicken würde.
2. Habe ich von Videoerkennung, nicht von Bildererkennung geredet. 3. Habe ich soetwas auf der Cebit gesehen, und mich mit den Leuten unterhalten (da ich selber in dem Semester KI belegt hatte kannte ich mich ein wenig damit aus) [\quote] 1. habe ich so auch nicht behauptet / 2. Da meinten wir das gleiche, Videos kann man nur anhand der Frames analysieren, also der Einzelbilder / 3. ok, innovatives bei der CeBit - das ist dann natürlich schon die oberklasse [quote]Im Prinzip könnte man das aber auch auf ganz normale Bilder anwenden. Bei der Unterscheidung Porno / nicht Porno denke ich, dass es sogar besser funktionieren könnte als bei Sportarten[\quote]. Ja, das stimmt. Die Idee ist eigentlich so spannend, dass ich mich da am liebsten gleich mal dran versuchen würde. Tatsächlich könnte das Erkennen von "Formen" in einzelnen Bildern schon reichen. Aber EasySnoop so wie es ist zu optimieren hat Vorrang. Danke für die Anregung! [quote]Die Schuldigen sind doch eindeutig die Betreiber der Websites, die ohne wirkliche altersverifikation Pornographie zugänglich machen. ...Das es den Leuten, welche dahinter stehen, ziemlich egal ist, weil man innerhalb von 30 Min. ne neue Domain bekommen kann, wird einfach ignoriert. Meiner Meinung nach ist das einfach nur dumm. [\quote] Ja, aber nehmen wir mal an, in einem düsteren SexShop in Deiner Stadt findest du zufällig einen Kinderporno aus Timbuktu - ist Dein Impuls dann, man müsse die Erzeuger im Herstellerland belangen, und nicht den Shop? Ist die Anwendung des Jugendschutzgesetzes in den hiesigen Medien bekämpfenswerte Zensur? Und was die Gelben Seiten betrifft: das Bereitstellen illegaler Inhalte erfolgt bei Google wissentlich und ganz direkt. Ob ein Strip-Club nicht gesetzeskonform sein Geschäft betreibt, oder man bei Google nach einem Klick Tierpornographie konusmieren kann, was auch so vorgertigt zum Finden indexiert ist - da sehe ich aber einen grundlegenden Unterschied. Ich gebe Google nicht die Schuld an allem Übel des Netzes, aber sie sind selber Teil dieses Übels - und das teilweise völlig unnötig. [quote]Für kleine Kinder reicht doch ein lokal installierter Internetfilter, um diese vor pornographischen Überraschungen zu schützen. Für ältere Kinder, die sich aktiv für Sexbildchen interesseren, gibt es sowieso kein Mittel sie davon abzuhalten[\quote] Das stimmt insofern, als dass ich ja schon sagte, wenn man Inhalte gut genug versteckt, ist EasySnoop völlig machtlos. Aber: EasySnoop soll hier nicht auf Knopfdruck ein Problem lösen, schon gar nicht falsche Erziehung, sondern grundsätzlich ein Problem sichtbar machen können. |
![]() |
Starwar |
![]() |
---|---|---|
(Folgende Zeilen sind weder beleidigend noch persönlich gemeint. Sie sollen auch nicht die Leistung die du hier erbringst schmälern)
Um ehrlich zu sein: Erkennung durch Dateinamen ist sinnlos. Von daher MUSS eine Analyse von Bildern und Videos her. Aber so finde ich es besser. Die FlasePositives geben den besorgten Eltern den (oft wohl nicht richtigen) Eindruck alles wäre OK. |
![]() |
frontalier |
![]() |
---|---|---|
Zitat: Um ehrlich zu sein: Erkennung durch Dateinamen ist sinnlos. Von daher MUSS eine Analyse von Bildern und Videos her.
Erstmal sorry für die falschen Quote-Tags *hüstel* Die echte Erkennung des Inhalts und die Variante mit den Hash-Werten sind natürlich technisch gesehen spannend und ich will das auch für später keines Falls ausschliessen. Aber: solche großen Erweiterungen anzugehen, bevor das jetzige Programm nicht ausprogrammiert ist und sein Potential noch nicht ausgeschöpft hat wäre kontraproduktiv. Folgendes passiert jetzt für die nächsten Betas: - Archiv-Inhalte werden erfasst - Suchwörter erhalten u.a. Klassen und werden bei der Erkennung differenziert gehandhabt - es kommt eine Whitelist für harmlose Wörter, in denen Suchwörter vorkommen - die Intelli Search erfasst auffällige Dateien auch ohne Dateinamen-Prüfung Das Prinzip war immer, dass der Anwender die Funde manuell prüfen muss. Dementsprechend muss EasySnoop vor allen Dingen weniger Fehlfunde generieren und bisher nicht erfasste Dateien erkennen. |
Übersicht

