Toon posts:

Apple wil iPhones gaan scannen op kindermisbruik

Pagina: 1 2 3 4 Laatste
Acties:

  • matthijst
  • Registratie: november 2002
  • Laatst online: 10:35
GforceNL schreef op zondag 8 augustus 2021 @ 20:05:
Wat is de volgende stap? Een mailtje naar de politie als de gps constateert dat je te hard rijdt ?
Alleen als je langs een school rijdt :+

  • lighting_
  • Registratie: mei 2017
  • Laatst online: 21-09 22:39
Donstil schreef op zondag 8 augustus 2021 @ 18:02:
[...]


Nee vind ik niet, je kunt niet 1:1 dit met verkeersdoden/verkeersveiligheid vergelijken. Dat slaat simpelweg nergens op.
Jawel. Je moet in principes denken. Niet naar het onderwerp

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Wat nou als blijkt dat achteraf Apple iemand heeft doorgespeeld (dus nadat de review heeft plaatsgevonden door een medewerker van Apple, aangegeven in hun eigen uitleg/illustratie) en deze persoon blijkt achteraf toch onschuldig?

Dat kan ik nergens terugvinden. Iemand?
Heeft dit consequenties voor Apple of mogen ze gewoon doorgaan waar ze mee bezig waren?

[Voor 21% gewijzigd door _Bailey_ op 08-08-2021 20:40]


  • lighting_
  • Registratie: mei 2017
  • Laatst online: 21-09 22:39
_Bailey_ schreef op zondag 8 augustus 2021 @ 20:39:
Wat nou als blijkt dat achteraf Apple iemand heeft doorgespeeld (dus nadat de review heeft plaatsgevonden door een medewerker van Apple, aangegeven in hun eigen uitleg/illustratie) en deze persoon blijkt achteraf toch onschuldig?

Dat kan ik nergens terugvinden. Iemand?
Heeft dit consequenties voor Apple of mogen ze gewoon doorgaan waar ze mee bezig waren?
Dat is hedendaags in NL ook het probleem. Eenmaal in de database op verdenkmaking en ben je toch onschuldig kom je er nooit meer uit.

[Voor 3% gewijzigd door lighting_ op 08-08-2021 20:53]


  • jvanhambelgium
  • Registratie: april 2007
  • Laatst online: 16-09 16:28
Ben benieuwd of dit eigenlijk enige impact zal hebben op de iPhones qua verkoop oid. (denk het niet)
Heb geen Apple en zal dit ook nooit gebruiken.
Uiteindelijk is het een keuze hé, je MOET dit product ook helemaal niet gebruiken en kan ook gewoon een "stock" Android phone gebruiken oid.

Het is wat mij betreft wel een erg zorgwekkende ontwikkeling...

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
jvanhambelgium schreef op zondag 8 augustus 2021 @ 20:58:
Ben benieuwd of dit eigenlijk enige impact zal hebben op de iPhones qua verkoop oid.
ik verwacht ook niet dat het direct impact zal hebben op de verkoop van iPhones. En mocht die impact hierdoor wel enorm zijn, dan stopt Apple natuurlijk direct met deze aanpak van kinderporno.

Uiteindelijk draait het bij Apple (en shareholders!) natuurlijk om $$$$ (logisch) . Dat is uiteraard veel belangrijker voor (eigenlijk het allerbelangrijkste voor Apple) dan het kunnen doorspelen van een paar vieze mannetjes...

[Voor 4% gewijzigd door _Bailey_ op 08-08-2021 21:17]


  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

jvanhambelgium schreef op zondag 8 augustus 2021 @ 20:58:
Ben benieuwd of dit eigenlijk enige impact zal hebben op de iPhones qua verkoop oid. (denk het niet)
Nee dat verwacht ik ook niet. Google en Microsoft doen dit ook en verkopen ook gewoon nog producten.

Sterker nog ik de privacy hoek is zoveel mis waar het gros zich helemaal niets van aantrekt of überhaupt weet van heeft.

[Voor 16% gewijzigd door Donstil op 08-08-2021 23:20]

My thirsty wanted whiskey. But my hunger needed beans


  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

GforceNL schreef op zondag 8 augustus 2021 @ 20:05:
Wat is de volgende stap? Een mailtje naar de politie als de gps constateert dat je te hard rijdt ?
Nou dat zou voor de eerder aan de haren bij gesleurde verkeersveiligheid wel goed zijn :)

My thirsty wanted whiskey. But my hunger needed beans


  • AntonyterHorst
  • Registratie: juli 2008
  • Laatst online: 00:34

AntonyterHorst

www.prosimrig.eu

-

[Voor 100% gewijzigd door AntonyterHorst op 16-08-2021 09:47]

Check onze Beursplein Discord: https://discord.gg/CkvyBNcm


  • ChrisM
  • Registratie: juni 2004
  • Laatst online: 07:20
Zo goed vind ik dat filmpje niet.
Ten eerste: hij heeft niet de moeite gedaan om echt uit te zoeken hoe het werkt: hij doet steeds of er verwarring is of het hashing of een neural netwerk etc is. Het neural network wordt gebruikt om een hash te maken van de afbeelding. Dat gebeurd op zo’n manier dat kleine aanpassingen aan de afbeelding (zwart/wit gemaakt, logo er op, hoekje afgesneden, etc) toch nog dezelfde hash geeft als het oorspronkelijke CSAM. Na even logisch nadenken en een paar sites zoeken, had hij dat kunnen weten.

Ten tweede: hij praat steeds over allerlei dingen die mis kunnen gaan, en zegt dat dit ook zo in het verleden is gegaan, maar hij geeft geen voorbeelden (alleen maar dat het is gebeurd). Dus ja, begin met kinderporno, maar eindig met iemand die iets negatiefs zegt over de president. Wat zijn daar voorbeelden van? (Ben ik ook wel echt benieuwd naar).

Ik weet zelf nog niet wat ik er van moet denken. Ook omdat ik denk: welke halve zool gaat z’n kinderporno nou in de iCloud zetten? Iemand die dat doet, gaat toch ook wel op een andere manier gepakt worden?

  • JAHRASTAFARI
  • Registratie: april 2005
  • Laatst online: 21-09 19:54
Even een naïeve vraag:

Kan apple zonder mijn medeweten mijn foto’s inzien en bewaren?

Als ik foto’s delete uit icloud, worden deze dan toch bij apple bewaard tot in lengte der dagen?

Stel dat ik geen gebruik maak van icloud en foto’s alleen op de iphone opsla - kan apple deze ook inzien en bewaren?

  • GforceNL
  • Registratie: juli 2004
  • Laatst online: 09:54

GforceNL

Out of memory....

AntonyterHorst schreef op zondag 8 augustus 2021 @ 23:29:
[...]

Een Google / Microsoft doet dit namelijk nu ook en mensen gebruiker het ondanks dat nog steeds. En wie weet waar deze bedrijven ondertussen allemaal op scannen (ja je mailtjes / agenda / je geuploade foto's / zoekopdrachten / online gedrag en nog veel meer wat we niet eens duidelijk hebben). En nee dat is geen pleidooi voor Apple, maar om het even allemaal in perspectief te laten zien :)
Die doen dat inderdaad ook, maar alleen dingen die je zelf bij hun in de cloud zet en niet op het device zelf.

<Zinloze tekst hier>


  • Of-Aaargh
  • Registratie: juli 2006
  • Laatst online: 10:58
JAHRASTAFARI schreef op maandag 9 augustus 2021 @ 08:01:
Even een naïeve vraag:

Kan apple zonder mijn medeweten mijn foto’s inzien en bewaren?

Als ik foto’s delete uit icloud, worden deze dan toch bij apple bewaard tot in lengte der dagen?

Stel dat ik geen gebruik maak van icloud en foto’s alleen op de iphone opsla - kan apple deze ook inzien en bewaren?
Nu nog niet, nu gaat er gecontroleerd worden voordat afbeeldingen naar Icloud gaan. Maar technisch gezien wordt het na invoering hiervan inderdaad mogelijk dat foto's die alleen op je Iphone staan kunnen worden gecontroleerd aan de hand van een database van onwelgevallige content. Dat betreft nu alleen kinderporno, maar technisch krijgen overheden (of bedrijven) nu de mogelijkheid om aan Apple te vragen ook te gaan checken op bijvoorbeeld illegaal gedownloade films, anti-overheid uitingen, anti-vax activiteiten, pro-LHBGT+ 'propaganda', politiek extremisme, noem maar op. De infrastructuur hiervoor is nu gemaakt.

Dat hier nu zoveel commotie over is, komt niet alleen omdat nu voor het eerst een niet-Chinese telefoonmaker openlijk aankondigt content op telefoons zelf te gaan controleren, maar juist ook omdat het Apple is die er mee begint. Apple die zich de laatste jaren opwerpt als kampioen voor privacybescherming tegen met name concurrent Google. Apple die altijd heeft gezegd dat Iphone=privacy. En dat is heel teleurstellend voor velen, omdat het nu blijkt dat ook Apple buigt.

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Of-Aaargh schreef op maandag 9 augustus 2021 @ 08:26:
[...]

Apple die altijd heeft gezegd dat Iphone=privacy. En dat is heel teleurstellend voor velen, omdat het nu blijkt dat ook Apple buigt.
Je hebt 100% gelijk. Dit is echter al de afgelopen pagina's meerdere keren naar voren gekomen ;)

Apple is natuurlijk na afgelopen paar dagen totaal ongeloofwaardig geworden. De 1 vind dat dikke prima en de ander kijkt daar (zeer) kritisch naar.

  • Marzman
  • Registratie: december 2001
  • Niet online

Marzman

They'll never get caught.

GforceNL schreef op zondag 8 augustus 2021 @ 20:05:
Wat is de volgende stap? Een mailtje naar de politie als de gps constateert dat je te hard rijdt ?
Wel slim om het met kindermisbruik te doen, want iedereen is daar tegen toch? Kunnen ze ook meteen berichten gaan scannen op terrorisme, want daar zijn we ook allemaal tegen toch? En om fouten van dat algoritme te voorkomen is het ook niet erg dat een medewerker van Apple dat dubbelchecked toch?

Eigenlijk moet je er gewoon rekening mee houden dat van alles wat je digitaal doet er niks meer prive is. Ik ben wel benieuwd wat ze scannen, de telefoon zelf of iCloud.

Wel grappig dat Facebook van de gelegenheid gebruik maakt om te vermelden dat ze dat niet doen nieuws: WhatsApp gaat geen foto's scannen op zoek naar kindermisbruik zoals A... , voor je privacy moet je dus bij Facebook zijn :+

[Voor 24% gewijzigd door Marzman op 09-08-2021 08:35]

☻/ Please consider the environment before printing this signature
/▌
/ \ <-- This is bob. copy and paste him and he will soon take over the world.


  • Dennisdn
  • Registratie: februari 2010
  • Laatst online: 09:35
_Bailey_ schreef op zondag 8 augustus 2021 @ 20:39:
Wat nou als blijkt dat achteraf Apple iemand heeft doorgespeeld (dus nadat de review heeft plaatsgevonden door een medewerker van Apple, aangegeven in hun eigen uitleg/illustratie) en deze persoon blijkt achteraf toch onschuldig?

Dat kan ik nergens terugvinden. Iemand?
Heeft dit consequenties voor Apple of mogen ze gewoon doorgaan waar ze mee bezig waren?
Daarom zit NCMEC er altijd tussen als goalkeeper. De medewerkers daar moeten hele dagen naar de echte misbruikfoto's kijken. Dat gebeurd vast niet door de eerste de beste stagiare. Niet te vergelijken met het clubje studenten wat bijvoorbeeld op Facebook alle foto's beoordeeld en veel valse positives geeft.

Het NCMEC stelt hun database beschikbaar aan Apple. Of ze dat nou doen omdat ze Apple vertrouwen of omdat Apple simpelweg met een grote zak geld zwaaide, hun eigen database beschermen ze wel.

Grapppig weetje : Google doet het al sinds 2018 en stelt het systeem zelfs beschikbaar aan externe organisaties. nieuws: Google geeft api vrij die beelden van kindermisbruik helpt identificeren

[Voor 14% gewijzigd door Dennisdn op 09-08-2021 08:41]


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Marzman schreef op maandag 9 augustus 2021 @ 08:32:
[...]


Eigenlijk moet je er geowon rekening mee houden dat van alles wat je digitaal doet er niks meer prive is. Ik ben wel benieuwd wat ze scannen, de telefoon zelf of iCloud.
dit is wat ik er de afgelopen dagen van geleerd heb. Ook al verkoopt Apple zeer slimme gladde marketingpraatjes als ''iPhone = privacy!'' (zie ook de foto in mijn OP) het is na afgelopen dagen simpelweg totaal ongeloofwaardig geworden.


De privacy focus verliest langzaam aan terrein bij Apple.
En zoals anderen hier aangaven; Android, Google en Microsoft doen het ook al. Dus Apple komt gewoon netjes in dat rijtje te staan.

Ik hoef in ieder geval niet meer andere mensen in mijn omgeving te overtuigen/adviseren dat je toch echt een iPhone moet nemen om de privacy.
Er zijn nog tal van andere redenen over om wél voor iPhone te kiezen, maar dat is een ander topic waard wellicht ;)

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Marzman schreef op maandag 9 augustus 2021 @ 08:32:
[...]

Ik ben wel benieuwd wat ze scannen, de telefoon zelf of iCloud.
Daar hoef je niet benieuwd naar te zijn hoor, hoe ze wat gaan doen is allemaal gewoon openbaar.
Lees anders dit even: https://www.apple.com/chi...ion_Technical_Summary.pdf

My thirsty wanted whiskey. But my hunger needed beans


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Dennisdn schreef op maandag 9 augustus 2021 @ 08:33:
[...]


Grapppig weetje : Google doet het al sinds 2018 en stelt het systeem zelfs beschikbaar aan externe organisaties. nieuws: Google geeft api vrij die beelden van kindermisbruik helpt identificeren
als ik me niet vergis, is de screening bij Google in de cloud en bij Apple (de 1ste screening) on device. Bij Apple wordt het doorgezet (ter beroordeling) zodra je het upload naar iCloud.
Correct me if I am wrong...

verder;

”Instead of scanning images in the cloud, the system performs on-device matching using a database of known CSAM image hashes provided by NCMEC and other child-safety organizations. Apple further transforms this database into an unreadable set of hashes, which is securely stored on users’ devices.”

Als je hiermee als bedrijf niet je gehele (!) user base als potentiële verdachten wegzet dan weet ik het niet meer.... 8)7 8)7

[Voor 27% gewijzigd door _Bailey_ op 09-08-2021 09:02]


  • AntonyterHorst
  • Registratie: juli 2008
  • Laatst online: 00:34

AntonyterHorst

www.prosimrig.eu

-

[Voor 99% gewijzigd door AntonyterHorst op 16-08-2021 09:47]

Check onze Beursplein Discord: https://discord.gg/CkvyBNcm


  • Dennisdn
  • Registratie: februari 2010
  • Laatst online: 09:35
_Bailey_ schreef op maandag 9 augustus 2021 @ 08:48:
[...]


als ik me niet vergis, is de screening bij Google in de cloud en bij Apple (de 1ste screening) on device. Bij Apple wordt het doorgezet (ter beroordeling) zodra je het upload naar iCloud.
Correct me if I am wrong...

verder;

”Instead of scanning images in the cloud, the system performs on-device matching using a database of known CSAM image hashes provided by NCMEC and other child-safety organizations. Apple further transforms this database into an unreadable set of hashes, which is securely stored on users’ devices.”
Maar dat het on-device in een gesloten enclave gebeurd is toch juist positief voor de privacy? Dat heb ik in ieder geval liever dan dat ze het pakketje buiten je device open maken om er even in te tuuren. Dan zouden ze daar dus álle foto's kunnen bekijken en nu alleen de foto's die je device als verdacht heeft bestempeld. En je moet ook nog eens 3 foto's hebben die in de bekende database voorkomen wat het aantal false-positives aanzienlijk verkleind. 1tje kan voorkomen, maar 3 tegelijk....

[Voor 7% gewijzigd door Dennisdn op 09-08-2021 09:12]


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
AntonyterHorst schreef op maandag 9 augustus 2021 @ 09:09:
[...]


Nogmaals. Het lijkt me verstandig om gewoon even de Technical Summary goed te lezen. Je trekt namelijk dit hele topic al conclusies voordat je iets leest.
geef dan aan wat ik mijn laatste post mis heb.

  • jvanhambelgium
  • Registratie: april 2007
  • Laatst online: 16-09 16:28
Donstil schreef op zondag 8 augustus 2021 @ 23:19:
[...]


Nee dat verwacht ik ook niet. Google en Microsoft doen dit ook en verkopen ook gewoon nog producten.

Sterker nog ik de privacy hoek is zoveel mis waar het gros zich helemaal niets van aantrekt of überhaupt weet van heeft.
Je hebt een punt dat denkelijk de meerderheid van gebruikerds helemaal geen besef/clue heeft over dit soort dingen. Wat wel enigzinds anders is met Google & Microsoft dat ze dit niet op het device doen ?
Als je zaken gaat uploaden naar Google(Drive) of OneDrive oid zal daar wel wat scanning plaatsvinden, maar ik denk niet dat vb op m'n Galaxy smarthpone binnnen het Android ecosysteem iets actief is dat m'n foto-folders gaat scannen/hashen en wat zaken gaat exporteren...

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
AntonyterHorst schreef op zondag 8 augustus 2021 @ 17:48:
[...]


De privé dingen die mijn inziens niet in de (i)Cloud horen heb ik dan ook niet in de cloud. Daar heeft een Apple / Google / Overheid helemaal niks mee te maken.
Precies! niks mee te maken inderdaad, maar ze doen het feitelijk al wel dus, middels een database op jouw iPhone instaleren waar een eerste screening plaatsvind. Dus ook al sla je het niet op in de iCloud

”Instead of scanning images in the cloud, the system performs on-device matching using a database of known CSAM image hashes provided by NCMEC and other child-safety organizations. Apple further transforms this database into an unreadable set of hashes, which is securely stored on users’ devices.”

  • PrimusIP
  • Registratie: juni 2021
  • Nu online
Ik sta er heel dubbel in. Enerzijds vind ik het prima als dit soort materiaal wordt aangepakt en vind ik dat er grenzen zijn aan vrijheid en privacy, zeker bij onderwerpen als dit soort misbruik.

Anderzijds word ik ook niet gelukkig van het idee dat een commercieel bedrijf op eigen initiatief informant of politie agent loopt te spelen. Dit zijn zaken waar ik dan liever heb dat het initiatief bij een democratisch gekozen en gecontroleerde overheid vandaan komt. Tech bedrijven hebben de laatste al steeds meer de behoefte overheidje te spelen. Wat mij betreft doen ze dat maar lekker in een dystopische film/game/boek.
En ik vraag me ook af in hoeverre zoiets een hellend vlak kan worden. Wat als bijvoorbeeld China denkt van "ow, zoiets kan ook handig zijn voor politieke content" of om nieuws te censureren.

  • Dennisdn
  • Registratie: februari 2010
  • Laatst online: 09:35
Maar door de iCloud simpelweg uit te schakelen kun je het hele proces voorkomen.

Misschien doet Apple het ook wel gewoon om zijn eigen business te beschermen. Ik kan mij voorstellen dat zij in theorie medeplichtig zijn aan het verspreiden als een verboden foto tussen je iPhone en iPad synct. Zo is Megaupload ook geëindigd.

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
PrimusIP schreef op maandag 9 augustus 2021 @ 09:23:
Enerzijds vind ik het prima als dit soort materiaal wordt aangepakt en vind ik dat er grenzen zijn aan vrijheid en privacy, zeker bij onderwerpen als dit soort misbruik.

Anderzijds word ik ook niet gelukkig van het idee dat een commercieel bedrijf op eigen initiatief informant of politie agent loopt te spelen. Dit zijn zaken waar ik dan liever heb dat het initiatief bij een democratisch gekozen en gecontroleerde overheid vandaan komt.
ik ben ook grote voorstander van aanpak kinderporno. En daar heeft Apple zeer zeker ook een verantwoordelijkheid.
Maar naar mijn mening (!) schieten ze daar nu volledig in door.

Sommige mensen hier hebben er 0 moeite mee en de andere groep vindt het weer een glijdende schaal

  • PrimusIP
  • Registratie: juni 2021
  • Nu online
Dennisdn schreef op maandag 9 augustus 2021 @ 09:23:
Maar door de iCloud simpelweg uit te schakelen kun je het hele proces voorkomen.

Misschien doet Apple het ook wel gewoon om zijn eigen business te beschermen. Ik kan mij voorstellen dat zij in theorie medeplichtig zijn aan het verspreiden als een verboden foto tussen je iPhone en iPad synct. Zo is Megaupload ook geëindigd.
Dat zou goed kunnen dat ze het doen om hun business te beschermen.

iCloud uitzetten voelt voor mij niet als een eerlijke optie. Het is teveel een intergaal onderdeel van hun ecosysteem. En Apple heeft ook teveel haar best gedaan te zorgen dat je niet makkelijk naar een niet-Apple partij kunt switchen.

  • Dennisdn
  • Registratie: februari 2010
  • Laatst online: 09:35
Ik hoop dat ik een erg kritische consument ben. En een Tweakers-Apple logo'tje bij mn naam helpt ook niet echt om neutraal over te komen.... Maar in dit geval, hoe het nú is gepresenteerd, kan ik er in mee gaan. Natuurlijk blijf ik dat wel kritisch volgen.

Alleen wat is het alternatief? Google en Microsoft doen het ook en gaan wellicht nog verder. Dan hou je alleen wat Chinese merken over, waarbij je zéker weet dat China meekijkt, met álles....

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
ChrisM schreef op maandag 9 augustus 2021 @ 07:17:
[...]

welke halve zool gaat z’n kinderporno nou in de iCloud zetten? Iemand die dat doet, gaat toch ook wel op een andere manier gepakt worden?
geloof maar dat dit wereldwijd uitgebreid besproken nieuws van Apple nu als een lopend vuurtje rondgaat in de ''vieze mannen club''. Zijn gaan simpelweg elders hun heil zoeken/delen/verspreiden.

Dus de uiteindelijke vangst zal alleen maar minder en minder worden, terwijl de gehele userbase met zo'n niet leesbare database achterblijft op hun iPhone.
Om nog maar niet te spreken van achteraf onjuist aangemerkte verdachten, ook al is de kans klein, hij is er zeer zeker.
Een smartphone fabrikant kán hier simpelweg iemands leven letterlijk kapot maken.

[Voor 20% gewijzigd door _Bailey_ op 09-08-2021 09:57]


  • AntonyterHorst
  • Registratie: juli 2008
  • Laatst online: 00:34

AntonyterHorst

www.prosimrig.eu

-

[Voor 100% gewijzigd door AntonyterHorst op 16-08-2021 09:47]

Check onze Beursplein Discord: https://discord.gg/CkvyBNcm


  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

jvanhambelgium schreef op maandag 9 augustus 2021 @ 09:11:
[...]


Je hebt een punt dat denkelijk de meerderheid van gebruikerds helemaal geen besef/clue heeft over dit soort dingen. Wat wel enigzinds anders is met Google & Microsoft dat ze dit niet op het device doen ?
Als je zaken gaat uploaden naar Google(Drive) of OneDrive oid zal daar wel wat scanning plaatsvinden, maar ik denk niet dat vb op m'n Galaxy smarthpone binnnen het Android ecosysteem iets actief is dat m'n foto-folders gaat scannen/hashen en wat zaken gaat exporteren...
Of dat op binnen een Galaxy Smartphone gebeurt durf ik je niet te zeggen, ik gebruik zelf geen android producten. Wel lijkt het te gebeuren in Google Photo's wat best een grote groep Android gebruikers gebruikt, alleen dan niet on device zoals bij Apple maar in de cloud.

My thirsty wanted whiskey. But my hunger needed beans


  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

AntonyterHorst schreef op maandag 9 augustus 2021 @ 09:56:
Er wordt veel gepraat vanuit angst, maar de vraag is of die terecht is. In mijn ogen (nog) niet.
En onkunde/onwetendheid, het document is niet voor iedereen goed te begrijpen, dat blijkt wel uit de diverse berichten hier.

Misschien dat Apple daar nog iets mee moet om het allemaal wat bereikbaarder te maken voor iedereen oid.

My thirsty wanted whiskey. But my hunger needed beans


  • sapphire
  • Registratie: november 2002
  • Laatst online: 10:56

sapphire

Die-hard pruts0r

Donstil schreef op maandag 9 augustus 2021 @ 10:10:
[...]


En onkunde/onwetendheid, het document is niet voor iedereen goed te begrijpen, dat blijkt wel uit de diverse berichten hier.

Misschien dat Apple daar nog iets mee moet om het allemaal wat bereikbaarder te maken voor iedereen oid.
Is het ook niet een beetje een NIMBY-sentiment?

Iedereen is voor de bestrijding van dit soort materiaal zolang ik er zelf maar geen last van heb en MIJN privacy niet word aangetast.
Ik ben hier zelf ook vrij fel in maar als het vergeleken word met hashes van bekend materiaal is dat toelaatbaar imho (let op, imho).
Zodra er op inhoud gekeken gaat worden is de grens wat mij betreft overschreden maargoed dan gaan heel veel mensen (ouders) een probleem hebben denk ik :+

Gabriël ITX


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
wat is hier onwetend aan?

The plans have sparked concerns among some security researchers and other parties that Apple could eventually be forced by governments to add non-CSAM images to the hash list for nefarious purposes, such as to suppress political activism.

"No matter how well-intentioned, Apple is rolling out mass surveillance to the entire world with this," said prominent whistleblower Edward Snowden, adding that "if they can scan for kiddie porn today, they can scan for anything tomorrow." The non-profit Electronic Frontier Foundation also criticized Apple's plans, stating that "even a thoroughly documented, carefully thought-out, and narrowly-scoped backdoor is still a backdoor."

Als diverse beveiligingsexperts al twijfels hebben. Of zouden er een paar mensen op Tweakers het wellicht beter begrijpen, meer kunde en wetendheid dus...

  • AntonyterHorst
  • Registratie: juli 2008
  • Laatst online: 00:34

AntonyterHorst

www.prosimrig.eu

-

[Voor 99% gewijzigd door AntonyterHorst op 16-08-2021 09:47]

Check onze Beursplein Discord: https://discord.gg/CkvyBNcm


Acties:
  • +1Henk 'm!
  • Pinned

  • matthijst
  • Registratie: november 2002
  • Laatst online: 10:35
AntonyterHorst schreef op maandag 9 augustus 2021 @ 09:56:
[...]
Maar hoe schieten ze daarin door dan? Het enige wat ze doen is hashes van al bekend materiaal vergelijken.
Het doorschieten zit hem erin dát ze controleren op jouw device.
Waar ze een jaar of 6 terug een iPhone van een terrorist niet wilden unlocken voor de FBI nemen ze nu alvast een voorsprongetje door elk i-apparaat dat aan de cloud hangt te controleren.

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
https://www.apple.com/customer-letter/

Bovenstaand is de brief (2016) van Apple aan klanten nav de San Bernardino terreur aanslag.
een citaat;

''But now the U.S. government has asked us for something we simply do not have, and something we consider too dangerous to create. They have asked us to build a backdoor to the iPhone.''

en dan dus wat ik net eerder aanhaalde, de zorgen van beveiligingsexperts nav het nieuws van afgelopen dagen;

''The non-profit Electronic Frontier Foundation also criticized Apple's plans, stating that "even a thoroughly documented, carefully thought-out, and narrowly-scoped backdoor is still a backdoor''.

Dus in 2016 duidelijk maken geen medewerking in het maken van een backdoor en nu 5 jaar later ineens wel.
Vindt Apple kinderporno uiteindelijk zwaarder wegen dan een terreur aanslag? interessant vraagstuk, imho

in het geval van de San Bernardino heb je 1 overduidelijke verdachte en verleent Apple niet de volledige medewerking aan de FBI.
Nu in 2021 krijgt elke (paar miljard?) iPhone eigenaar, mits iCloud aan, te maken met actieve opsporing van viespeuken. Dus meer dan de volledige medewerking.

[Voor 14% gewijzigd door _Bailey_ op 09-08-2021 10:53]


  • eric.1
  • Registratie: juli 2014
  • Laatst online: 10:55
_Bailey_ schreef op maandag 9 augustus 2021 @ 10:20:
[...]


wat is hier onwetend aan?

The plans have sparked concerns among some security researchers and other parties that Apple could eventually be forced by governments to add non-CSAM images to the hash list for nefarious purposes, such as to suppress political activism.

"No matter how well-intentioned, Apple is rolling out mass surveillance to the entire world with this," said prominent whistleblower Edward Snowden, adding that "if they can scan for kiddie porn today, they can scan for anything tomorrow." The non-profit Electronic Frontier Foundation also criticized Apple's plans, stating that "even a thoroughly documented, carefully thought-out, and narrowly-scoped backdoor is still a backdoor."

Als diverse beveiligingsexperts al twijfels hebben. Of zouden er een paar mensen op Tweakers het wellicht beter begrijpen, meer kunde en wetendheid dus...
"could eventually be", dus ze hebben geen problemen met hoe het nu technisch is. Alleen met hoe het ooit MOGELIJK gebruikt zou kunnen worden.

  • AntonyterHorst
  • Registratie: juli 2008
  • Laatst online: 00:34

AntonyterHorst

www.prosimrig.eu

-

[Voor 99% gewijzigd door AntonyterHorst op 16-08-2021 09:47]

Check onze Beursplein Discord: https://discord.gg/CkvyBNcm


Acties:
  • +1Henk 'm!
  • Pinned

  • ChrisM
  • Registratie: juni 2004
  • Laatst online: 07:20
Apple heeft een FAQ geplaatst met een aantal antwoorden op vragen die gesteld worden, ook in dit topic. Zie https://www.apple.com/chi...ently_Asked_Questions.pdf

Interessante Q&A's:
Can the CSAM detection system in iCloud Photos be used to detect things other than CSAM?
Our process is designed to prevent that from happening. CSAM detection for iCloud Photos is built so that the system only works with CSAM image hashes provided by NCMEC and other child safety organizations. This set of image hashes is based on images acquired and validated to be CSAM by child safety organizations. There is no automated reporting to law enforcement, and Apple conducts human review before making a report to NCMEC. As a result, the system is only designed to report photos that are known CSAM in iCloud Photos. In most countries, in- cluding the United States, simply possessing these images is a crime and Apple is obligated to report any instances we learn of to the appropriate authorities.
Could governments force Apple to add non-CSAM images to the hash list?
Apple will refuse any such demands. Apple’s CSAM detection capability is built solely to detect known CSAM images stored in iCloud Photos that have been identified by experts at NCMEC and other child safety groups. We have faced demands to build and deploy government-man- dated changes that degrade the privacy of users before, and have steadfastly refused those demands. We will continue to refuse them in the future. Let us be clear, this technology is limit- ed to detecting CSAM stored in iCloud and we will not accede to any government’s request to expand it. Furthermore, Apple conducts human review before making a report to NCMEC. In a case where the system flags photos that do not match known CSAM images, the account would not be disabled and no report would be filed to NCMEC.
Can non-CSAM images be “injected” into the system to flag ac- counts for things other than CSAM?
Our process is designed to prevent that from happening. The set of image hashes used for matching are from known, existing images of CSAM that have been acquired and validated by child safety organizations. Apple does not add to the set of known CSAM image hashes. The same set of hashes is stored in the operating system of every iPhone and iPad user, so targeted attacks against only specific individuals are not possible under our design. Finally, there is no automated reporting to law enforcement, and Apple conducts human review before making a report to NCMEC. In the unlikely event of the system flagging images that do not match known CSAM images, the account would not be disabled and no report would be filed to NCMEC.

[Voor 85% gewijzigd door ChrisM op 09-08-2021 11:06. Reden: 3 Q&A's toegevoegd]


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
ChrisM schreef op maandag 9 augustus 2021 @ 11:04:
Apple heeft een FAQ geplaatst met een aantal antwoorden op vragen die gesteld worden, ook in dit topic. Zie https://www.apple.com/chi...ently_Asked_Questions.pdf
thanks voor de link.

Ik gok alleen dat nog geen 4% van de gehele iPhone eigenaren dit document zullen lezen ;) net zoals de ellenlange gebruikersvoorwaarden die je te zien krijgt zodra je de setup doorloopt van een iPhone.

Maar zoals @Donstil al aangaf om de gebruikers beter te informeren, wellicht een idee voor Apple om dit bijv. in alle grote nieuws outlets goed/gedetailleerd uit te leggen. Daar krijg je een groter bereik mee ipv een FAQ sheetje op 1 website.

Dan kun je daarna als iPhone eigenaar beslissen hoe en of je iCloud zal gebruiken of wellicht een keuze voor een andere smartphone te gaan.

[Voor 12% gewijzigd door _Bailey_ op 09-08-2021 11:16]


  • evilution
  • Registratie: maart 2012
  • Niet online
*knip* Obvious troll is obvious.

[Voor 85% gewijzigd door F_J_K op 09-08-2021 11:31]

|<----------------------------------------------arm length---------------------------------------------->|
|<-------------------------------------------where the cat is--------------------------------------------->|


  • Aiii
  • Registratie: oktober 2003
  • Nu online

Aiii

何これ

evilution schreef op maandag 9 augustus 2021 @ 11:13:
Toch bijzonder dat er onder Apple users kennelijk zoveel belangstelling is voor kiddy porn dat er een heel systeem voor opgetuigd wordt dat alle gebruikers in de gaten houdt.
Dat zal inderdaad de defining factor zijn geweest ja.

  • AntonyterHorst
  • Registratie: juli 2008
  • Laatst online: 00:34

AntonyterHorst

www.prosimrig.eu

-

[Voor 100% gewijzigd door AntonyterHorst op 16-08-2021 09:47]

Check onze Beursplein Discord: https://discord.gg/CkvyBNcm


  • matthijst
  • Registratie: november 2002
  • Laatst online: 10:35
Grappig hoe ze dit verkopen:

In most countries, in- cluding the United States, simply possessing these images is a crime and Apple is obligated to report any instances we learn of to the appropriate authorities.

Could governments force Apple to add non-CSAM images to the hash list?
Apple will refuse any such demands. Apple’s CSAM detection capability is built solely to detect known CSAM images stored in iCloud Photos


Dus voor CSAM wél omdat de regering het verplicht, en dan gaan ze er vanuit dat andere zaken niet verplicht worden.
Voor nu klopt het, maar dit is dus waar Snowden en co bang voor zijn: het begint met CSAM en daarna is het afhankelijk van de lobbygroepen om meer dingen verplicht te laten checken.

Qua oplossing is dit wel de mooiste oplossing voor eindgebruikers.

[Voor 17% gewijzigd door matthijst op 09-08-2021 11:27]


  • GforceNL
  • Registratie: juli 2004
  • Laatst online: 09:54

GforceNL

Out of memory....

Mooi verhaal, ik stap over op android. Geen enkel bedrijf mag zonder toestemming bij mij thuis of op mijn telefoon neuzen zonder dat ik daar toestemming voor geef.

<Zinloze tekst hier>


  • AntonyterHorst
  • Registratie: juli 2008
  • Laatst online: 00:34

AntonyterHorst

www.prosimrig.eu

-

[Voor 100% gewijzigd door AntonyterHorst op 16-08-2021 09:47]

Check onze Beursplein Discord: https://discord.gg/CkvyBNcm


  • downtime
  • Registratie: januari 2000
  • Niet online

downtime

Everybody lies

matthijst schreef op maandag 9 augustus 2021 @ 11:22:


Dus voor CSAM wél omdat de regering het verplicht, en dan gaan ze er vanuit dat andere zaken niet verplicht worden.
Nee. Voor CSAM omdat er wetgeving voor is. Voor andere zaken niet omdat daar (nog) geen wetgeving voor is.

Een verzoek van de overheid is heel wat anders dan een wettelijke verplichting. Verzoeken kun je afwijzen want daar staat geen straf tegenover. Wetgeving zul je gewoon uit moeten voeren. In een normaal functionerende rechtsstaat is dat een belangrijk onderscheid.

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

_Bailey_ schreef op maandag 9 augustus 2021 @ 10:20:
[...]


wat is hier onwetend aan?

The plans have sparked concerns among some security researchers and other parties that Apple could eventually be forced by governments to add non-CSAM images to the hash list for nefarious purposes, such as to suppress political activism.

"No matter how well-intentioned, Apple is rolling out mass surveillance to the entire world with this," said prominent whistleblower Edward Snowden, adding that "if they can scan for kiddie porn today, they can scan for anything tomorrow." The non-profit Electronic Frontier Foundation also criticized Apple's plans, stating that "even a thoroughly documented, carefully thought-out, and narrowly-scoped backdoor is still a backdoor."

Als diverse beveiligingsexperts al twijfels hebben. Of zouden er een paar mensen op Tweakers het wellicht beter begrijpen, meer kunde en wetendheid dus...
Met onkunde of onwetendheid bedoel ik uiteraard niet de tekst inhoudelijk maar de strekking die sommige daar (hier) uit trekken.

Dat beveiligingsexperts twijfels hebben is alleen maar goed, dat is hun werk maar houd Apple ook scherp.
Extra reden voor Apple om dus niet de privacy overboord te gooien zoals sommige direct aannemen maar er zorgvuldig mee om te springen.

My thirsty wanted whiskey. But my hunger needed beans


  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

GforceNL schreef op maandag 9 augustus 2021 @ 11:26:
Mooi verhaal, ik stap over op android. Geen enkel bedrijf mag zonder toestemming bij mij thuis of op mijn telefoon neuzen zonder dat ik daar toestemming voor geef.
Hihi i see what you did there :P

My thirsty wanted whiskey. But my hunger needed beans


  • Orinoco
  • Registratie: april 2007
  • Niet online

Orinoco

Unter den Linden

matthijst schreef op maandag 9 augustus 2021 @ 11:22:
Grappig hoe ze dit verkopen:

In most countries, in- cluding the United States, simply possessing these images is a crime and Apple is obligated to report any instances we learn of to the appropriate authorities.

Could governments force Apple to add non-CSAM images to the hash list?
Apple will refuse any such demands. Apple’s CSAM detection capability is built solely to detect known CSAM images stored in iCloud Photos


Dus voor CSAM wél omdat de regering het verplicht, en dan gaan ze er vanuit dat andere zaken niet verplicht worden.
Voor nu klopt het, maar dit is dus waar Snowden en co bang voor zijn: het begint met CSAM en daarna is het afhankelijk van de lobbygroepen om meer dingen verplicht te laten checken.

Qua oplossing is dit wel de mooiste oplossing voor eindgebruikers.
Ben ook wel benieuwd of Apple nog in detail in gaat op het statement van EFF, zie dat nog niet terug in de gepubliceerde FAQ van Apple.
https://www.eff.org/deepl...ackdoor-your-private-life

Ook de openbrief van diverse organisaties en mensen roept nogal wat vraagtekens op
https://appleprivacyletter.com

Gaan we in ieder geval deze week nog genoeg over te horen/lezen krijgen :)

  • matthijst
  • Registratie: november 2002
  • Laatst online: 10:35
downtime schreef op maandag 9 augustus 2021 @ 11:36:
[...]

Nee. Voor CSAM omdat er wetgeving voor is. Voor andere zaken niet omdat daar (nog) geen wetgeving voor is.

Een verzoek van de overheid is heel wat anders dan een wettelijke verplichting. Verzoeken kun je afwijzen want daar staat geen straf tegenover. Wetgeving zul je gewoon uit moeten voeren. In een normaal functionerende rechtsstaat is dat een belangrijk onderscheid.
Sorry, wetgeving :)
Punt blijft hetzelfde: wat er nu nog niet is kan altijd nog komen. Dus het verbaast me dat dit soort wetten erdoor komen. Maar goed, Child abuse is heilig en qanon 8)7

Dat Apple daar verder niks aan kan doen snap ik :)

[Voor 18% gewijzigd door matthijst op 09-08-2021 11:47]


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
geloof dat deze reclame poster van Apple niet helemaal meer 100% klopt... :+


  • absrnd
  • Registratie: augustus 2005
  • Nu online
Na het lezen van de PDF, en info op andere sites, krijg ik het donkerbruin vermoeden dat Apple zich preventief aan het indekken is voor toekomstige wetten.

Met deze aanpassingen kan Apple aangeven tot hier en niet verder, en dat aankomende wetgeving van de US en Eu verder gaat dan wat Apple zou willen, juist vanwege schenden van de privacy op je eigen phone of PC.

het is heel opvallend dat Apple niet kiest voor alleen de eigen servers voor foto's en messages te scannen, maar dat zou kunnen komen dat foto's/media gedeeld kan worden die niet via de Apple servers gaan, en Apple daar geen zicht/grip op heeft.
En Apple een standpunt heeft ingenomen dat ze niet willen dat Apple devices gebruikt worden voor KP en dergelijke.(misschien vanwege aankomende aansprakelijkheid)

het zal me dus niet verbazen dat de US en Eu regeringen een nieuwe wet gaan toepassen die in het geheim wordt doorgevoerd/aangenomen, zonder dat dit publiekelijk wordt gemaakt.

  • Jazzy
  • Registratie: juni 2000
  • Nu online

Jazzy

Moderator SWS/PB

Moooooh!

_Bailey_ schreef op maandag 9 augustus 2021 @ 11:53:
geloof dat deze reclame poster van Apple niet helemaal meer 100% klopt... :+
Modbreak:Dit is niet de HK en ook niet de plek voor niet-relevante Apple/Android/Windows Phone vergelijkingen. Er is inmiddels genoeg informatie bekend voor een inhoudelijke en op feiten gebaseerde discussie, laten we het daar dan ook bij houden.

Exchange en Office 365 specialist. Mijn blog.


  • Dennisdn
  • Registratie: februari 2010
  • Laatst online: 09:35
absrnd schreef op maandag 9 augustus 2021 @ 12:11:

het zal me dus niet verbazen dat de US en Eu regeringen een nieuwe wet gaan toepassen die in het geheim wordt doorgevoerd/aangenomen, zonder dat dit publiekelijk wordt gemaakt.
Nog een stap verder blijkt dat Apple eigenlijk in dienst is van de planeet Mars die liever zijn UFO's niet terug ziet in de iCloud.

  • eric.1
  • Registratie: juli 2014
  • Laatst online: 10:55
absrnd schreef op maandag 9 augustus 2021 @ 12:11:
het zal me dus niet verbazen dat de US en Eu regeringen een nieuwe wet gaan toepassen die in het geheim wordt doorgevoerd/aangenomen, zonder dat dit publiekelijk wordt gemaakt.
Een wet die niet bekend wordt, is het dan wel een wet?

Je snapt zelf hoop ik ook wel dat dit geen zinnige toevoeging hier is.

  • KirovAir
  • Registratie: september 2009
  • Laatst online: 10:49
Pfoe, ik heb juist ongeveer alles net een beetje over op het Apple ecosysteem juist omdat ze zo lekker bezig waren qua privacy. Het ontgrendel akkefietje met de terrorist gaf mij extra vertrouwen in de devices toendertijd.
Toch weer een pijnlijke klap op het zoveelste ecosysteem dat naar de touwtjes moet dansen van een regering. Triest nieuws, maar niks onverwachts natuurlijk. Dan maar wat extra storage op de NAS.

Edit:
Oof, ze gaan ook echt ondevice scans doen blijkbaar. What the fuck Apple?

[Voor 11% gewijzigd door KirovAir op 09-08-2021 12:22]

"The only thing more dangerous than a hardware guru with a code patch is a programmer with a soldering iron."


  • Jazzy
  • Registratie: juni 2000
  • Nu online

Jazzy

Moderator SWS/PB

Moooooh!

absrnd schreef op maandag 9 augustus 2021 @ 12:11:
het is heel opvallend dat Apple niet kiest voor alleen de eigen servers voor foto's en messages te scannen, maar dat zou kunnen komen dat foto's/media gedeeld kan worden die niet via de Apple servers gaan, en Apple daar geen zicht/grip op heeft.
Door encryptie kan Apple helemaal niet meer bij de data wanneer die getransporteerd is of opgeslagen op hun servers. Of tenminste, dat zouden ze niet moeten kunnen. Door op het device te scannen wordt encryptie omzeild. Dat is ook één van de fundamentele bezwaren die mensen hebben.
En Apple een standpunt heeft ingenomen dat ze niet willen dat Apple devices gebruikt worden voor KP en dergelijke.(misschien vanwege aankomende aansprakelijkheid)
Deze link is al eerder gedeeld: Wikipedia: Think of the children Objectief gezien is er vrijwel geen reden om je hier mee bezig te houden. De kans dat je een "content creator" vindt is uiterst klein omdat de community anno 2021 prima op de hoogte is van de technische risico's en hoe die te omzeilen. Maar durf daar maar eens wat van te zeggen als politicus, je zou eens het verwijt kunnen krijgen dan je niet tegen kinderporno bent...
het zal me dus niet verbazen dat de US en Eu regeringen een nieuwe wet gaan toepassen die in het geheim wordt doorgevoerd/aangenomen, zonder dat dit publiekelijk wordt gemaakt.
Wetten worden niet in het geheim gemaakt en doorgevoerd, dat is niet hoe een democratie werkt. :)

Exchange en Office 365 specialist. Mijn blog.


  • AntonyterHorst
  • Registratie: juli 2008
  • Laatst online: 00:34

AntonyterHorst

www.prosimrig.eu

-

[Voor 100% gewijzigd door AntonyterHorst op 16-08-2021 09:46]

Check onze Beursplein Discord: https://discord.gg/CkvyBNcm


  • Sluw
  • Registratie: februari 2014
  • Laatst online: 11:03
Volgens mij is deze nog niet gepost, Apple heeft een FAQ online gegooid. Ze zeggen zelf dat ze wel de privacy beschermen door alleen bekende bestaande CSAM foto's te checken, iets dat concurrenten als Microsoft, Facebook en Google niet doen, die proberen alles te herkennen. Daarnaast geldt het dus alleen voor iCloud wat doet vermoeden dat het iets te maken heeft met eventueel aankomende wetten. Bijvoorbeeld dat er meer verantwoordelijkheid wordt gelegd bij de service waar de foto's zich bevinden ofzo.
Can the CSAM detection system in iCloud Photos be used to detect things other than CSAM?

Our process is designed to prevent that from happening. CSAM detection for iCloud Photos is built so that the system only works with CSAM image hashes provided by NCMEC and other child safety organizations. This set of image hashes is based on images acquired and validated to be CSAM by child safety organizations. There is no automated reporting to law enforcement, and Apple conducts human review before making a report to NCMEC. As a result, the system is only designed to report photos that are known CSAM in iCloud Photos. In most countries, in- cluding the United States, simply possessing these images is a crime and Apple is obligated to report any instances we learn of to the appropriate authorities.

[Voor 39% gewijzigd door Sluw op 09-08-2021 12:32]


  • absrnd
  • Registratie: augustus 2005
  • Nu online
eric.1 schreef op maandag 9 augustus 2021 @ 12:19:
[...]

Een wet die niet bekend wordt, is het dan wel een wet?

Je snapt zelf hoop ik ook wel dat dit geen zinnige toevoeging hier is.
In het verleden zijn er al meerdere wetten door de EU in het geheim aangenomen, die ook met de nationale veiligheid te maken hebben e.d.

https://www.thewestwing.nl/post/de-aanpak-van-de-eurokloof
Het merendeel van EU beleid wordt namelijk achter gesloten deuren besproken en onderhandeld. Hoewel het Europees Parlement bij wet genoodzaakt is om te rapporteren over deze bijeenkomsten achter gesloten deuren, blijkt dat dit in de praktijk niet of nauwelijks gebeurt.
Deze "geheime" wetten worden vaak in heel veel regels verstopt zodat het niet goed duidelijk is wat er nu echt met de wet geregeld wordt.

-offtopic:
Neem als voorbeeld het illegaal downloaden, er is in de afgelopen jaren steeds geprobeerd wetten er doorheen te duwen die vergaande impact hebben op het vlak van privacy, en wat providers wel en niet mogen aanbieden aan de klant ivm piracy, deze worden door allerlei instanties gedwarsboomd, maar telkens wordt geprobeerd deze regels door te voeren door ze te verdoezelen tussen andere regels.
Het opvallend aan deze "geheime" wetten zijn, dat ze niet het standaard pad doorlopen om ingevoerd te worden, maar een zeer verkort traject, waardoor het moeilijker wordt om ze te dwarsbomen.

[Voor 33% gewijzigd door absrnd op 09-08-2021 12:42]


  • eric.1
  • Registratie: juli 2014
  • Laatst online: 10:55
absrnd schreef op maandag 9 augustus 2021 @ 12:35:
[...]


In het verleden zijn er al meerdere wetten door de EU in het geheim aangenomen, die ook met de nationale veiligheid te maken hebben e.d.

https://www.thewestwing.nl/post/de-aanpak-van-de-eurokloof


[...]
Onderhandelen achter gesloten deuren staat niet gelijk aan in het geheim wetten bedenken en doorvoeren zonder dat we hier enige weet van hebben.

  • Dennisdn
  • Registratie: februari 2010
  • Laatst online: 09:35
absrnd schreef op maandag 9 augustus 2021 @ 12:35:
[...]


In het verleden zijn er al meerdere wetten door de EU in het geheim aangenomen, die ook met de nationale veiligheid te maken hebben e.d.

https://www.thewestwing.nl/post/de-aanpak-van-de-eurokloof


[...]


Deze "geheime" wetten worden vaak in heel veel regels verstopt zodat het niet goed duidelijk is wat er nu echt met de wet geregeld wordt.

-offtopic:
Neem als voorbeeld het illegaal downloaden, er is in de afgelopen jaren steeds geprobeerd wetten er doorheen te duwen die vergaande impact hebben op het vlak van privacy, en wat providers wel en niet mogen aanbieden aan de klant ivm piracy, deze worden door allerlei instanties gedwarsboomd, maar telkens wordt geprobeerd deze regels door te voeren door ze te verdoezelen tussen andere regels.
Het opvallend aan deze "geheime" wetten zijn, dat ze niet het standaard pad doorlopen om ingevoerd te worden, maar een zeer verkort traject, waardoor het moeilijker wordt om ze te dwarsbomen.
Disclaimer - stukken geschreven door the West Wing zijn geschreven op basis van de persoonlijke opvattingen van haar schrijvers

Zaken onderbouwen vanuit bekende complotsites helpt niet heel erg in een discussie.

  • absrnd
  • Registratie: augustus 2005
  • Nu online
De EU is er al blijkbaar druk mee bezig.
Deze dan van afgelopen 7e Juli :)

nieuws: EU-parlement geeft platforms optie privéberichten te checken op kinde...

[Voor 5% gewijzigd door absrnd op 09-08-2021 12:51]


  • renegrunn
  • Registratie: september 2006
  • Laatst online: 10:43
matthijst schreef op zondag 8 augustus 2021 @ 19:17:
[...]

Zo'n beetje wat die dude in dat filmpje ook (te vaak) herhaalt:
"De Nederlandse Sophie in ‘t Veld gaf aan dat ze bij het plaatsen van kritische kanttekeningen al snel te maken kreeg met de suggestie dat ze onvoldoende wilde vechten tegen kindermisbruik en seksuele uitbuiting."
En dus heeft ze voor gestemd, terwijl ze er op tegen was…

  • Ybox
  • Registratie: juni 2000
  • Laatst online: 16-09 10:40
Voor de mensen die reageren met "Apple vergelijkt alleen maar hashes".
Het hele idee achter een hash is bestand => berekening => hash, als je dat bestand ook maar iets veranderd krijg je een andere hash. Dat is natuurlijk niet handig wanneer je zoekt naar KP, immers ze zouden het plaatje maar iets hoeven te wijzigen en het matched niet meer met de opgeslagen hashes.

De techniek is dus "slimmer" en kan ook tegen enige modificatie van het plaatje (knippen, draaien, pixels aanpassen) Er gebeurd dus meer dan alleen het vergelijken van hashes!

zie: https://www.apple.com/chi...ion_Technical_Summary.pdf

  • Dennisdn
  • Registratie: februari 2010
  • Laatst online: 09:35

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Ja die had ik gisteren hier ook gepost. Op een of andere manier had ik dat nieuws bericht ook volledig gemist.
Ybox schreef op maandag 9 augustus 2021 @ 13:01:
Voor de mensen die reageren met "Apple vergelijkt alleen maar hashes".
Het hele idee achter een hash is bestand => berekening => hash, als je dat bestand ook maar iets veranderd krijg je een andere hash. Dat is natuurlijk niet handig wanneer je zoekt naar KP, immers ze zouden het plaatje maar iets hoeven te wijzigen en het matched niet meer met de opgeslagen hashes.

De techniek is dus "slimmer" en kan ook tegen enige modificatie van het plaatje (knippen, draaien, pixels aanpassen) Er gebeurd dus meer dan alleen het vergelijken van hashes!

zie: https://www.apple.com/chi...ion_Technical_Summary.pdf
Dat komt omdat er bij hashes vaak (alleen) uitgegaan wordt van hashes van de files maar dat is hier juist niet het geval. Het gaat om een fingerprint van de afbeelding, kleine aanpassingen kunnen daarin gemaakt worden maar dan blijft deze hetzelfde.

My thirsty wanted whiskey. But my hunger needed beans


  • Blue-eagle
  • Registratie: september 2000
  • Niet online
Ik vraag me af of het mogelijk is gewoon geen gebruik te maken van iCloud. Helemaal uit, niks in de cloud. En dan bedoel ik ook echt nul comma nul communicatie richting de servers van Apple. Ik wil namelijk niet dat informatie van mijzelf op welke manier dan ook wordt gedeeld met andere instanties.

De hoofdreden om bij Apple te blijven was het feit dat zij de gebruiker niet zien als een advertentie-doelwit en bron van advertentie-informatie. Google verkoopt alles wat jij doet aan de hoogste bieder, Apple had die behoefte niet.

Nu mijn informatie naar de overheid van de VS gaat en straks mogelijk ook naar Europa en Nederland ben ik er echt helemaal klaar mee. De Nazi-praktijken zijn nog geen eeuw geleden begonnen waarna vele groepen mensen massaal werden opgesloten en vermoord. Mensen zijn gruwelijke dieren en het is nog maar de vraag of wij ons kunnen wapenen tegen een invasie vanuit Rusland, bijvoorbeeld.

Stel je eens voor, Rusland valt de rest van Europa aan met hun 1+ miljoen soldaten. Ze vragen aan Apple om even te laten zien welke mannen foto's hebben van katten. Want die mannen moeten dood. Nou, dan ben ik enorm de lul.

(In de 2e-wereldoorlog waren soortgelijke nietszeggende criteria aanwezig voor het afvoeren van mensen naar concentratiekampen.)

Nu was ik al van plan om Apple achter mij te laten in de volgende iPhone ronde (want: wederom geen Touch ID en alleen maar dat idiote Face ID), want mijn iPhone 7 wordt wel wat oud en ik wil leukere foto's makken van mijn kat. Maar tja. Wat dan?

Ik wou dat ik gewoon zelf kon instellen waar mijn foto's werden opgeslagen. iCloud uit, maar gewoon "als mijn pc online is thuis, zet het daar maar op de HDD".

Zeer frustrerend dit. De privacy is compleet weg bij Apple want dit is maar een voorbode van veel meer. Het begint bij kinderen, daarna ouderen ("Je arme oma met dementie is verdwaald, wij zoeken haar op in alle foto's die mensen maken"), daarna huisdieren ("Jan de papegaai is weggevlogen? Wij zoeken hem, op alle foto's!"), daarna terrorisme ("Jij kan meehelpen in de opsporing van internationale terroristen!"), daarna zware criminelen ("De moordenaars van Truus waren sneller gevonden als we alles konden doorzoeken, nu kan het!"), en daarna ook mensen die verdacht worden van mogelijk huiselijk geweld ("De gordijnen gingen dicht en daarna werd er luid geschreeuwd, laten we de politie eropaf sturen!"), en opeens ga je deze slippery-slope af naar een Minority Report-achtige situatie waarbij mensen worden opgespoord voordat ze iets verkeerd doen, maar statistisch gezien een hoog risico vormen.

Hebben wij wat te verbergen?

Mwah. Niet echt. Maar dat is het punt niet.

Ik vind dit echt enorm zorgwekkend.

  • IThom
  • Registratie: april 2016
  • Laatst online: 21-09 19:01
AntonyterHorst schreef op maandag 9 augustus 2021 @ 09:09:
[...]


Nogmaals. Het lijkt me verstandig om gewoon even de Technical Summary goed te lezen. Je trekt namelijk dit hele topic al conclusies voordat je iets leest.
Misschien is het voor jou dan verstandig om je eerstvolgende reactie pas de plaatsen nadat je serieus de letter geschreven en ondertekend door talloze security en privacyorganisaties leest.

In die brief staat aangegeven waarom we ons juist wel zorgen moeten maken over wat hier door Apple geïntroduceerd wordt.
In tegenstelling tot wat je hier al een aantal keer aangeeft is dit veel indringender dan wat door o.a. Google en Microsoft gedaan wordt: In plaats van controleren binnen het eigen domein (op de servers van het bedrijf) wordt er in het privedomein een controle uitgevoerd.

Tegelijkertijd wordt er door het introduceren van de mogelijkheid om te scannen op bepaalde content een backdoor gecreëerd waar geen realistische optout voor is. (Gebruikers hebben iCloud nodig om gebruik te maken van het ecosysteem, overstappen naar niet iOS apparaten is een gigantische kostenpost).

In antwoord op een aantal vragen in de Apple FAQ:
Can the CSAM detection system in iCloud Photos be used to detect things other than CSAM?
Our process is designed to prevent that from happening.
Aangezien de daadwerkelijke CSAM content niet bij Apple beschikbaar is kan een medewerker niet bepalen of de betreffende afbeelding daadwerkelijk de afbeelding is die de hash doet geloven. De hash is geen hash van de afbeelding, maar van een fingerprint van de afbeelding, waardoor een overeenkomst niet vast te stellen is.
Verder kan Apple ook niet verifiëren dat bestanden die in die hash database staan daadwerkelijk CSAM content is, omdat de content zelf niet beschikbaar is. Er zijn al eerder door een menselijke fout onjuiste hashes in vergelijkbare databases terechtgekomen .
Could governments force Apple to add non-CSAM images to the hash list?
Apple will refuse any such demands.
Wetgeving is niet iets wat geweigerd kan worden. Misschien zal dit niet direct een probleem zijn in de VS of EU, in andere landen zal Apple gewoon aan wetgeving moeten voldoen, en Apple doet dat ook. Zo kun je in de VAE geen gebruik maken van FaceTime omdat e2e encryption daar verboden is en voldoet Apple aan Chinese wetgeving voor iClouddiensten die daar aangeboden worden.
Juist omdat Apple weet dat landen dingen via wetgeving kunnen eisen is het zo bizar dat het bedrijf (dat privacy als USP noemt) hier openbaar zegt dat ze dit kunnen en gaan doen.

Verder wat betreft de reacties die zeggen dat je een groot bedrijf als Apple wel vertrouwd met zoiets: WAAROM?!
Er staat duidelijk in de documentatie dat de gebruiker er verder niks van merkt. Denk je dat wanneer Apple een dergelijke scan zou instellen die bijvoorbeeld apparaten in China op afbeeldingen van "de Tankman" zou scannen, dat dit aan de grote klok gehangen wordt?

Er moet bij dergelijke technologie en wetgeving die het risico van een glijdende schaal heeft NOOIT het voordeel van de twijfel gegeven worden, en al helemaal niet als er geen enkele vorm van controle door onafhankelijke partijen mogelijk is.

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Blue-eagle schreef op maandag 9 augustus 2021 @ 13:52:
Nu mijn informatie naar de overheid van de VS gaat en straks mogelijk ook naar Europa en Nederland ben ik er echt helemaal klaar mee.
Zit jij wel in het juiste topic? Want dit is niet aan de orde binnen het onderwerp waar we in dit topic over spreken.

My thirsty wanted whiskey. But my hunger needed beans


  • Aiii
  • Registratie: oktober 2003
  • Nu online

Aiii

何これ

Ik mis eigenlijk nog een stukje uit het hele verhaal. Geldt dit enkel voor Photos die met iCloud Photos gedeeld worden, of worden ook foto's gescanned die in je gewone device backup (die ook op iCloud zitten) en dus technisch alleen op dat ene device geplaatst zijn?

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Het heeft de Frontpage ook weer gehaald:

nieuws: Apple belooft fotoscan alleen te gebruiken voor opsporen kindermisbruik

[Voor 9% gewijzigd door Donstil op 09-08-2021 16:54]

My thirsty wanted whiskey. But my hunger needed beans


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Donstil schreef op maandag 9 augustus 2021 @ 16:50:
Het heeft de Frontpage ook weer gehaald:

nieuws: Apple belooft fotoscan alleen te gebruiken voor opsporen kindermisbruik

Met een aantal reacties vol goeie input trouwens.
Klopt, aantal goede reacties.

Waaronder een +2 van een reactie wat ik gisteren ook al heb aangehaald hier, namelijk;

Wat Apple nu doet is in feite doet is iedereen als potentiële verdachte wegzetten, tenzij…

Overigens wordt deze constatering niet alleen hier op Tweakers gedeeld.

Prima dat hier in dit topic mensen dat geen enkel probleem vinden , ik persoonlijk vind het gevaarlijk en een glijdende schaal.

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Edit: dubbel post

[Voor 96% gewijzigd door Donstil op 09-08-2021 19:07]

My thirsty wanted whiskey. But my hunger needed beans


  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

_Bailey_ schreef op maandag 9 augustus 2021 @ 16:57:
[...]


Klopt, aantal goede reacties.

Waaronder een +2 van een reactie wat ik gisteren ook al heb aangehaald hier, namelijk;

Wat Apple nu doet is in feite doet is iedereen als potentiële verdachte wegzetten, tenzij…

Overigens wordt deze constatering niet alleen hier op Tweakers gedeeld.

Prima dat hier in dit topic mensen dat geen enkel probleem vinden , ik persoonlijk vind het gevaarlijk en een glijdende schaal.
Ja ik had mijn worden al terug genomen inmiddels, want voor elke goeie reactie (En dat is dan een onderbouwde, niet eentje die toevallig post wat iemand wil horen) staan er weer een aantal tegenover die maar wat roepen.

My thirsty wanted whiskey. But my hunger needed beans


  • Blue-eagle
  • Registratie: september 2000
  • Niet online
Donstil schreef op maandag 9 augustus 2021 @ 15:09:
[...]


Zit jij wel in het juiste topic? Want dit is niet aan de orde binnen het onderwerp waar we in dit topic over spreken.
Waarom niet? De titel van dit topic is "Nieuwe reactie in Apple wil iPhones gaan scannen op kindermisbruik"

Apple is een Amerikaans bedrijf. iPhones worden over de hele wereld gebruikt. Als Apple ook onze foto's met hun servers in de VS synchroniseert is dat daadwerkelijk ontopic en relevant voor dit topic.

En ja, ik snap hoe cloud servers werken. Ik kom regelmatig in de VS en dan ben ik gewoonweg dichterbij de servers in de VS. En ik weet niet of ze dit netjes synchroniseren naar Europa en andere plaatsen in de wereld.

Dat risico wil ik niet nemen.
Juist, en "Apple belooft" quoten we over een paar jaar weer met sarcasme omdat ze toch andere dingen gaan tracken. Beloftes duren zo lang als het geduld van de wet en soms ook investeerders. Allebei zijn ze in staat om beloftes te doen breken.

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Blue-eagle schreef op maandag 9 augustus 2021 @ 17:48:
[...]


Waarom niet? De titel van dit topic is "Nieuwe reactie in Apple wil iPhones gaan scannen op kindermisbruik"

Apple is een Amerikaans bedrijf. iPhones worden over de hele wereld gebruikt. Als Apple ook onze foto's met hun servers in de VS synchroniseert is dat daadwerkelijk ontopic en relevant voor dit topic.

En ja, ik snap hoe cloud servers werken. Ik kom regelmatig in de VS en dan ben ik gewoonweg dichterbij de servers in de VS. En ik weet niet of ze dit netjes synchroniseren naar Europa en andere plaatsen in de wereld.

Dat risico wil ik niet nemen.
Omdat wat je zegt totaal niet rijmt met wat ze nu aankondigen.

My thirsty wanted whiskey. But my hunger needed beans


  • Jazzy
  • Registratie: juni 2000
  • Nu online

Jazzy

Moderator SWS/PB

Moooooh!

Blue-eagle schreef op maandag 9 augustus 2021 @ 17:48:
Waarom niet? De titel van dit topic is "Nieuwe reactie in Apple wil iPhones gaan scannen op kindermisbruik"

Apple is een Amerikaans bedrijf. iPhones worden over de hele wereld gebruikt. Als Apple ook onze foto's met hun servers in de VS synchroniseert is dat daadwerkelijk ontopic en relevant voor dit topic.
Neem anders eerst het topic even rustig door en dan met name het whitepaper waar een paar keer naar gelinkt is. Dit heeft namelijk niets te maken met het synchroniseren van foto's met servers die in de VS staan.

Exchange en Office 365 specialist. Mijn blog.


  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Aiii schreef op maandag 9 augustus 2021 @ 15:39:
Ik mis eigenlijk nog een stukje uit het hele verhaal. Geldt dit enkel voor Photos die met iCloud Photos gedeeld worden, of worden ook foto's gescanned die in je gewone device backup (die ook op iCloud zitten) en dus technisch alleen op dat ene device geplaatst zijn?
Foto's die je niet in iCloud zet worden niet geupload.
Apple says the new tool is called “neuralMatch.” It will scan images on your cellphone before they’re uploaded to the iCloud and flag anyone known for child sexual abuse.
Zie ook: https://9to5mac.com/2021/...-csam-detection-solution/
Apple continues to offer clarity around the CSAM (child sexual abuse material) detection feature it announced last week. In addition to a detailed frequently asked questions document published earlier today, Apple also now confirmed that CSAM detection only applies to photos stored in iCloud Photos, not videos.
Apple is also reinforcing that if a user does not use iCloud Photos, then no part of the CSAM detection process runs. This means that if a user wants to opt out of the CSAM detection process, they can disable iCloud Photos.
Dat laatste is sowieso interessant voor iedereen die kritisch is op cloud diensten maar verder dus vooral (en dat is mogelijk ook interessant voor @_Bailey_): “what’s happens on your iPhone stays on your iPhone

[Voor 7% gewijzigd door Donstil op 09-08-2021 19:14]

My thirsty wanted whiskey. But my hunger needed beans


  • ChrisM
  • Registratie: juni 2004
  • Laatst online: 07:20
Op zich wel interessant dat het gekoppeld is aan iCloud. Zou dit dan zijn omdat ze niet de CSAM op hun servers willen hosten, en dit dan de meest privacy vriendelijke manier is om dat voor elkaar te krijgen? Door het on device te doen, ipv alle foto’s te scannen die op de iCloud zijn? Want ze hebben immers geen toegang tot de foto’s, toch, wegens encryptie enzo?

  • Aiii
  • Registratie: oktober 2003
  • Nu online

Aiii

何これ

Donstil schreef op maandag 9 augustus 2021 @ 19:08:
[...]


Foto's die je niet in iCloud zet worden niet geupload.
Maar ze gaan dus wel naar iCloud als onderdeel van je backup.

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Aiii schreef op maandag 9 augustus 2021 @ 20:01:
[...]

Maar ze gaan dus wel naar iCloud als onderdeel van je backup.
Foto’s kunnen in je iCloud back-up zitten maar vallen daarmee niet onder deze nieuwe maatregel.

Je kan ze daarin ook uitzetten overigens maar durf even niet te zeggen wat de default is.

My thirsty wanted whiskey. But my hunger needed beans


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
nou, Apple gaat er vol in om de Privacy, ooit de pilaren en USP van het bedrijf/iPhone, de prullenbak in te mieteren... 8)7 8)7
Plannen om het scannen dus verder uit te breiden naar 3rd party apps.

''Apple today held a questions-and-answers session with reporters regarding its new child safety features, and during the briefing, Apple confirmed that it would be open to expanding the features to third-party apps in the future.
Apple said that while it does not have anything to share today in terms of an announcement, expanding the child safety features to third parties so that users are even more broadly protected would be a desirable goal. Apple did not provide any specific examples, but one possibility could be the Communication Safety feature being made available to apps like Snapchat, Instagram, or WhatsApp so that sexually explicit photos received by a child are blurred.

Another possibility is that Apple's known CSAM detection system could be expanded to third-party apps that upload photos elsewhere than iCloud Photos.''

https://www.macrumors.com...eatures-third-party-apps/

Dus wil je niet mee doen met dit dan behalve "gewoon" je iCloud Foto's uitzetten nu ook de 3rd party apps verwijderen die er dus ook (mogelijk) aan mee gaan doen "

Nog geen 24 uur geleden werd er her en der sterk beweerd dat Apple deze scan methode nooit zou uitbreiden naar 3rd party apps...

Waar eindigt dit...scannen op telefoongesprekken? "Ja, je kunt gewoon nog je iPhone blijven gebruiken zoals gewoonlijk, maar dan de Telefoon app uitschakelen mocht je er niet aan mee willen doen "

In de San Bernardino terreur aanslag weigert Apple van 1 duidelijke dader de iPhone te ontgrendelen voor de FBI.
6 jaar later gaat Apple er vol in voor "save the children" en honderden miljoenen iPhones scannen

[Voor 28% gewijzigd door _Bailey_ op 09-08-2021 22:56]


  • ChrisM
  • Registratie: juni 2004
  • Laatst online: 07:20
Ik denk echt dat hier wetgeving achter zit.. of aan zit te komen. En dat Apple met deze oplossing komt, omdat het de meest privacy vriendelijke manier is om toch te scannen. En dat ze dit aanbieden aan 3rd party, om te voorkomen dat die met rommel-oplossingen komen.

Als een partij verantwoordelijk is voor wat er op z’n cloud gebeurd, dan kunnen ze in de cloud scannen, maar dan moeten alle foto’s un-encrypted zijn met alle andere mogelijke risico’s… of je moet ze scannen voordat ze naar de cloud gaan, dus op het apparaat.

Maar dit zijn aannames, die niet duidelijk in de communicatie van Apple naar voren komt. Zou een goede Q zijn: waarom doen jullie dit?

  • PrimusIP
  • Registratie: juni 2021
  • Nu online
ChrisM schreef op dinsdag 10 augustus 2021 @ 04:45:
Maar dit zijn aannames, die niet duidelijk in de communicatie van Apple naar voren komt. Zou een goede Q zijn: waarom doen jullie dit?
Vragen kan geen kwaad. Maar kans is dat je een typisch Apple onzin antwoord krijgt. Hun antwoord is dat wat hun het minste schade geeft en het beste voor consumenten werkt. We zagen dat ook bij antwoorden op reacties rond het beleid van de AppStore.

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
PrimusIP schreef op dinsdag 10 augustus 2021 @ 08:17:
[...]
Maar kans is dat je een typisch Apple onzin antwoord krijgt.
laat 'kans' maar gewoon weg. Het zal 100% een Apple antwoord worden. Apple is absolute King in marketing, dus dat gaat een gelikt antwoord worden zoals natuurlijk altijd bij Apple.

Het feit is gewoon dat Apple jarenlang Privacy zo'n beetje het allerheiligste vond (verleden tijd!) , sterker nog, ze bouwden complete reclame campagnes eromheen, maakte de privacy van concurrenten (Google/Android) belachelijk.
Hieromheen is een sterke loyale userbase gecreeërd. Mensen kiezen juist voor Apple omwille van de Privacy.

En nu dan de foto scannen actie en nog geen 24 uur later de onthulling van het idee om deze scanmethode uit te breiden naar 3rd party apps.
Apple groeit simpelweg toe naar een actief surveillance bedrijf. En of dat nou de functie is van een smartphone fabrikant...

Sorry, maar dan ben je al bedrijf dat Privacy zo wat het allerheiligste vond (verleden tijd!) in 1 klap totaal ongeloofwaardig geworden.

verder een zeer serieuze vraag voor allen;
- Hoe komt wat nu in 3 dagen bekend is geworden wat betreft het scannen van foto's en mogelijk 3rd party apps mijn Privacy ten goede, vergeleken met de Privacy vòòr al deze plannen?
Je Privacy gaat er nu toch alleen maar flink op achteruit ipv vooruit? vooruitgang, dat wat Apple altijd voor ogen had als het om privacy ging (verleden tijd!)

[Voor 6% gewijzigd door _Bailey_ op 10-08-2021 08:59]


  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

Haha je begint een beetje een hangende plaat te worden, telkens dezelfde bewering bij elke ontwikkeling maar als er dan onderbouwde reacties komen ben je weg.

Ik zal het nog eens een keertje proberen: Heb je foto's op je device maar de iCloud sync uitgeschakeld dan worden ze niet meegenomen in de nieuwe plannen. Gebruik je een andere sync app om foto's naar een cloud te zetten dan wordt het voor derde partijen mogelijk om dezelfde API's te gebruiken voor de CSAM detection.

Oftewel wil je niet dat je files door het filter gaan zet je ook daar de upload uit en alles "stays on your iphone again", volledig privacy bewust etc. Als een derde partij met phone side scannen gaat beginnen maar je wilt dat niet dan kan je daar gaan klagen of overstappen op een andere dienst (tot die ook gaan scannen).

Gewoon al die cloud meuk uit zetten en de foto's er met een kabeltje afhalen, dat is en blijft privacy technisch het beste.

Edit: Overigens ben ik helemaal voor dat third party cloud diensten dit ook serieus gaan nemen en dus scannen met de tools die Apple ze kan bieden.

[Voor 7% gewijzigd door Donstil op 10-08-2021 09:04]

My thirsty wanted whiskey. But my hunger needed beans


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Donstil schreef op dinsdag 10 augustus 2021 @ 09:00:


Gewoon al die cloud meuk uit zetten en de foto's er met een kabeltje afhalen, dat is en blijft privacy technisch het beste.
ah ok, 'gewoon' de Cloud meuk uitzetten. Zo'n beetje het fundament van het eco systeem van Apple slopen dus.

  • Donstil
  • Registratie: maart 2006
  • Niet online

Donstil

Grab them by the 🐈.

_Bailey_ schreef op dinsdag 10 augustus 2021 @ 09:05:
[...]


ah ok, 'gewoon' de Cloud meuk uitzetten. Zo'n beetje het fundament van het eco systeem van Apple slopen dus.
Nee dat is onzin, een iPhone die je zonder cloud gebruikt werkt juist heel goed omdat er al zoveel phone-side gedaan wordt.

My thirsty wanted whiskey. But my hunger needed beans


  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Donstil schreef op dinsdag 10 augustus 2021 @ 09:08:
[...]


Nee dat is onzin, een iPhone die je zonder cloud gebruikt werkt juist heel goed omdat er al zoveel phone-side gedaan wordt.
zou je deze vraag (eerlijk! en dus niet door de mooie roze bril van Apple :+ ) kunnen beantwoorden;

- Hoe komt wat nu in 3 dagen bekend is geworden wat betreft het scannen van foto's en mogelijk 3rd party apps mijn Privacy ten goede, vergeleken met de Privacy vòòr al deze plannen?
Je Privacy gaat er nu toch alleen maar flink op achteruit ipv vooruit? vooruitgang, dat wat Apple altijd voor ogen had als het om privacy ging (verleden tijd!)

  • Dennisdn
  • Registratie: februari 2010
  • Laatst online: 09:35
Ik denk dat Apple de vraag: Waarom doen we dit? moet gaan beantwoorden om de discussie voort te kunnen zetten. De grootste zorgen lijken te liggen op de 2e vraag: waarom óp het device? Als zij kunnen antwoorden op de 1e Waarom: “We moeten simpelweg vanwege dezelfde wetgeving als waarom Google, Microsoft en de providers aan het scannen zijn”. En daaraan toevoegen de 2e Waarom dat on-device second-best het meest privacy-vriendelijk is (wat ze al zeggen), dat er een boel onrust wordt weggenomen.

Ik kan mij namelijk niet voorstellen dat Apple dit helemaal vrijwillig doet. Ondanks de uiteraard goede gedachte erachter is het vooral heel veel gedoe. Technisch maar vooral verantwoorden naar de community.

[Voor 20% gewijzigd door Dennisdn op 10-08-2021 15:41]


  • Haruhi
  • Registratie: januari 2012
  • Laatst online: 10:15
Mijn zorgen zijn niet om vandaag maar over de lange termijn.

Apple is een "Public company". Wat als een groot aandeelhouder gaat zeuren "x" of "y" te doen.
Wat als de toekomstige CEO een zak geld van dictator "z" aanneemt om te voorkomen 11,000 werknemers te ontslaan?

De fundering voor zulk soort vraagstukken is in ieder geval aanwezig.

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Dennisdn schreef op dinsdag 10 augustus 2021 @ 09:27:
Ik denk dat Apple de vraag: Waarom doen we dit?
precies, waarom doen we dit wél met de aanpak van kinderporno door op miljoenen iPhones software te zetten die mogelijk kan helpen in de aanpak van kp, en 1 dader van een terreuraanslag (2016 San Bernardino) komt Tim Cook zeer stellig met een antwoord de FBI niet te willen helpen omwille van Privacy.

  • Pendora
  • Registratie: juni 2002
  • Laatst online: 21-09 15:49
_Bailey_ schreef op dinsdag 10 augustus 2021 @ 09:11:
[...]


zou je deze vraag (eerlijk! en dus niet door de mooie roze bril van Apple :+ ) kunnen beantwoorden;

- Hoe komt wat nu in 3 dagen bekend is geworden wat betreft het scannen van foto's en mogelijk 3rd party apps mijn Privacy ten goede, vergeleken met de Privacy vòòr al deze plannen?
Je Privacy gaat er nu toch alleen maar flink op achteruit ipv vooruit? vooruitgang, dat wat Apple altijd voor ogen had als het om privacy ging (verleden tijd!)
Volgens mij maakt het geen donder uit voor en na dit. Nu: foto's worden op de iCloud gescand op CP. Straks: foto's worden op je telefoon vlakvoor je deze naar iCloud stuurt gescand op CP.
Voordeel voor jou, foto's hoeven dus niet meer op iCloud gescand te worden, kan eventueel ook worden geencrypt en nog beter, foto's die nu legaal zijn kunnen achteraf niet illegaal worden aangemerkt.

  • _Bailey_
  • Registratie: oktober 2012
  • Niet online
Pendora schreef op dinsdag 10 augustus 2021 @ 09:44:
[...]

foto's worden op je telefoon vlakvoor je deze naar iCloud stuurt gescand op CP.
de software en de onleesbare database kp (aangeleverd door NCMEC) die op élke iPhone (vanaf iOS 15 als ik me niet vergis) zal worden geinstalleerd wekt bij mij persoonlijk een zeer wantrouwend beeld naar je klant toe.

Een ieder is daar natuurlijk vrij in om wellicht het tegenovergestelde er te van vinden; dat Apple juist met deze actie wel vertrouwen heeft in haar iPhone gebruikers

[Voor 3% gewijzigd door _Bailey_ op 10-08-2021 09:56]


  • Hackus
  • Registratie: december 2009
  • Niet online

Hackus

Lifting Rusty Iron !

De kwaadwilligen gebruiken vaak geen vorm van cloud, dus is de kans nog kleiner. Gewoon een toestel met bepaalde Apps en weer uitloggen. Dan valt er weinig uit iCloud te scannen

Kiest als MTB' er voor het mulle zand en drek, ipv het naastgelegen verharde pad.


  • Orinoco
  • Registratie: april 2007
  • Niet online

Orinoco

Unter den Linden

Pendora schreef op dinsdag 10 augustus 2021 @ 09:44:
[...]

Volgens mij maakt het geen donder uit voor en na dit. Nu: foto's worden op de iCloud gescand op CP. Straks: foto's worden op je telefoon vlakvoor je deze naar iCloud stuurt gescand op CP.
Voordeel voor jou, foto's hoeven dus niet meer op iCloud gescand te worden, kan eventueel ook worden geencrypt en nog beter, foto's die nu legaal zijn kunnen achteraf niet illegaal worden aangemerkt.
Dat laatste klopt helaas niet, foto's die je straks met iOS 15 upload naar iCloud hangt een hash aan, dat doet NeuralHash.
Als die foto dan door wat voor oorzaak ook in een database terecht komt van een persoon die zich met kinderporno bezig houdt en deze gepakt wordt, dan kan jouw foto met NeuralHash ook in de CSAM hash database komen. Die CSAM hash lijst kan dan weer door Apple op je device gezet worden waardoor er een match kan zijn met die betreffende foto als je hem weer een keertje van je device naar iCloud upload.
Dat is volgens mij, als ik het een beetje begrijp het grote gevaar wat er achter schuilt, hopelijk heb ik het mis :)
Pagina: 1 2 3 4 Laatste


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee