• 0 Posts
  • 11 Comments
Joined 2 years ago
cake
Cake day: August 9th, 2023

help-circle





  • c’est après l’invasion par la Russie en 2014 que l’Ukraine a cherché ouvertement à rejoindre frontalement l’OTAN.

    Donc la Russie a envahi l’Ukraine, qui face à cette attaque, s’est rapprochée de l’OTAN pour sa défense, ce qui, selon toi, a provoqué la deuxième invasion de l’Ukraine.

    Donc, c’est la Russie qui est responsable sur toute la ligne, parce que c’est parce qu’elle n’a pas respecté ses engagements (Mémorandum de Budapest, notamment) et s’est montrée agressive et belliqueuse, que l’Ukraine a cherché des alliés pour se défendre.

    C’est d’ailleurs aussi à cause des menaces et des exactions commises par Poutine que d’autres pays, comme la Finlande ou la Suède, après des décennies de neutralité, ont vu leur opinion populaire basculer fortement vers l’adhésion à l’OTAN.

    Prétendre que l’OTAN, qui était en état de mort cérébrale depuis des années, est responsable du comportement de la Russie, n’est rien d’autre que de la propagande Russe. Poutine a ouvertement pour ambition d’effacer le pays Ukrainien de la carte, il a été très clair dans sa communication, et l’OTAN n’a rien à voir là-dedans.


  • According to GrapheneOS, a security-oriented Android Open Source Project (AOSP)-based distro: “The app doesn’t provide client-side scanning used to report things to Google or anyone else. It provides on-device machine-learning models that are usable by applications to classify content as spam, scams, malware, etc. This allows apps to check content locally without sharing it with a service and mark it with warnings for users.”

    So it does not scan your photos, it’s a library that can be used by apps. I think the point is to allow apps to reject or tag a picture without ever sending it to a server for scanning, thus taking off the load of these servers and putting it on the client-side.

    Like, you’re trying to post a story on Instagram, the app asks Safetycore if the picture contains porn/violence/something they don’t want, Safetycore says yes/no, and Instagram accepts and tag or refuses the picture accordingly.

    The danger here IMO is less about privacy and more about censoring : we know every time something is pushed to fight child porn, it ends up used to control activists and political opponents. People may be restricted to share proofs of police violence for example.

    No problem if you’re using Lemmy, you can use any front-end, so you can use an app that won’t use SafetyCore.