PlayStore mon application est supprimé

a marqué ce sujet comme résolu.

Bonjour à tous je suis nouveau ici.

J’ai publié mon application depuis un bon temps aujourd’hui l’application vient d’être supprimé du PlayStore par Google avec ce message:

Les applications de réseaux sociaux ou les applications dotées de fonctionnalités de réseaux sociaux qui incluent les enfants dans leur public cible doivent être conformes à cette politique. Une application de réseaux sociaux est une application dont la fonction principale consiste à permettre aux utilisateurs de partager librement du contenu ou de communiquer avec un grand nombre de personnes. Une fonctionnalité de réseaux sociaux est une fonctionnalité supplémentaire permettant aux utilisateurs d’une application de partager librement des contenus ou de communiquer avec un grand nombre de personnes.

  • L’application doit, avant de permettre aux utilisateurs mineurs d’échanger librement du contenu multimédia ou des renseignements, fournir un rappel dans l’application quant à la nécessité de faire preuve de prudence sur Internet et de tenir compte des risques concrets inhérents aux interactions en ligne.

  • L’application doit exiger l’intervention d’un adulte avant d’activer les fonctionnalités qui permettent aux enfants d’échanger des renseignements personnels.

  • Vous devez proposer un système permettant à des adultes de gérer les fonctionnalités de réseaux sociaux destinées aux utilisateurs mineurs, y compris, mais sans s’y limiter, en leur donnant la possibilité d’activer ou de désactiver ces fonctionnalités, ou de sélectionner différents niveaux de fonctionnalités accessibles.

Mon application est disponible à partir de 3 ans et plus. J’ai implémenter une fonctionnalité de club permettant aux utilisateurs de poser des questions et d’échanger.

Quelle opération dois-je effectué pour résoudre le problème tout temps laissant les 3 ans et plus ?

Merci d’avance.

Salut,

  • Pour le point 1 je trouve étonnant qu’ils n’aient pas un lien pour définir les "risques concrets inhérents aux interactions en ligne". Il va falloir te renseigner dessus mais j’imagine qu’il s’agit de la divulgation d’information confidentiel (mot de passe, adresse …), au risque de mauvaise rencontre (grooming pédophile), et au cyber harcèlement (conduisant à un mal-être profond et au suicide). Il va falloir afficher un disclaimer avant l’utilisation, j’imagine qu’à la création du compte ça doit suffir mais ça peut être pas mal de l’afficher au lancement de l’appli (ou de la fonctionnalité club si elle est confinée dans son onglet et pas intégrée de partout)
  • Pour les points 2 et 3, tu pourrais soit demander aux comptes mineurs de se lier à un compte majeur qui a les fonctionnalités de contrôle de fonctionnalité sur les comptes liés, soit tu peux peut-être activer un safe mode dans les paramètres, qui se désactive avec un mot de passe qui aura été défini par un parent (plus facilement fraudé mais plus simple d’implémentation).
+2 -0

Ma réponse ne sont que des suggestions, mais il existe d’autres solutions, et c’est à toi de définir ce que tu veux, c’est pour ça qu’il est difficile de répondre.

je pourrai choisir quel âge:

soifConnaissance

De même, c’est une décision qu’on ne peut pas prendre à ta place, les seules choses qu’on sait sur ton appli c’est qu’elle est tout public 3 ans et plus et qu’elle intègre des fonctionnalités sociales. Et maintenant tu remets en cause la première affirmation. On peut pas vraiment dire sans plus d’info.
Tu avais l’air d’affirmer que c’est une appli pour 3+ ans, donc garde cette cible.

+3 -0

Je ne demande pas de prendre une décision à ma place, l’application a été supprimé parce qu’elle intègre une fonctionnalité de réseau sociaux destiné aux publics plus jeune. Actu je ne peux pas implémenter de fonctionnalité pour gérer ça, du coup je demande à partir de quel âge le public n’est plus considérer comme jeune ? Si tu le sais ?

Pour le premier point c’est une application éducative ou il y a des cours, exercices, anciens sujets et corrigés, j’ai ajouté un forum pour poser des question et interagir avec les autres.

Si tu veux contourner ça via l’âge, comme c’est mentionné à plusieurs reprises mineurs, c’est très probablement 18 ans. Dans ce cas, l’application n’apparaîtra pas du tout pour les comptes n’ayant pas fait une vérification d’âge (via carte de crédit ou pièce d’identité).

+2 -0

Ne perdez pas votre temps à chercher sur Internet à quel âge on peut avoir Instagram, quel est l’âge légal pour Facebook et TikTok ou l’âge minimum pour Snapchat.

👉 Absolument tous les réseaux sociaux les plus populaires (TikTok, Facebook, Instagram, Twitter, Snapchat, Discord, etc.) demandent d’avoir 13 ans pour ouvrir un compte.

Mais, en pratique, il est parfaitement possible de s’inscrire en donnant une fausse date de naissance. Alors, pourquoi 13 ans est-il l’âge légal des réseaux sociaux ? 🧐

Tout simplement parce que les entreprises comme Facebook gagnent de l’argent en revendant les données personnelles des utilisateurs. Or, une loi américaine interdit l’utilisation commerciale des données appartenant à des mineurs de moins de 13 ans.

Antoine Parat, Votre enfant doit-il avoir un profil sur les réseaux sociaux ?, @ GoStudent — 6/octobre/2021

Après, Google essayant de s’adapter à plusieurs pays/législations, il est possible que la visibilité de ton application varie… En France, c’est du 15 avec un certain nombre d’obligations et de sanctions.

La loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) est complétée pour définir les réseaux sociaux. Cette définition reprend celle figurant dans la législation européenne sur les marchés numériques ou Digital Markets Act (DMA).

De nouvelles obligations sont imposées aux réseaux sociaux (tels TikTok, Instagram, Snapchat…). Les réseaux sociaux devront :

  • refuser l’inscription à leurs services des enfants de moins de 15 ans, sauf si un des parents a donné son accord ;
  • informer, lors de l’inscription, les enfants de moins de 15 ans et leurs parents sur "les risques liés aux usages numériques et les moyens de prévention" et sur les conditions d’utilisation de leurs données personnelles ;
  • permettre aux parents, ou à l’un des deux, de demander la suspension du compte de leur enfant de moins de 15 ans ;
  • activer, lors de l’inscription d’un mineur, un dispositif de contrôle du temps passé en ligne. Le jeune devra être informé régulièrement par des notifications.

Pour vérifier l’âge de leurs utilisateurs et l’autorisation parentale, les réseaux sociaux devront mettre en place une solution technique, conforme à un référentiel que doit élaborer l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), après consultation de la Commission nationale de l’informatique et des libertés (CNIL). En cas de non-respect de cette obligation, le réseau social pourra se voir infliger une amende pouvant aller jusqu’à 1% de son chiffre d’affaires mondial.

Loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, @ Vie-Publique — 10/juillet/2023

Ça va donc plus loin que juste le Google Play Store… Je ne sais pas comment font les autres applis pour enfants mais tu peux jeter un œil pour t’en inspirer. Dans le domaine des aides aux devoirs en ligne, ça semble s’adosser à une plateforme web qui doit répondre aux critères précédents. Et sinon, la majorité se passe réseau aussi.

Bon courage et tiens nous au jus.

+2 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte