Bookmarkez un article, une news ou un tuto et retrouvez-le dans votre section "Mes signets" du menu membre.
6 nouveaux annuaires
Luthiers, Réparateurs, Cours de musique, Studios d’enregistrement, de mastering et de répétition... Suggérez l’ajout d’une entreprise, inscrivez la vôtre ou déposez un avis.
Alertes disponibilité et baisse de prix
Ces nouvelles fonctionnalités vous permettent d'être informé·e dès qu'un produit est disponible ou que son prix a baissé.
Tentatives d'arnaque dans les petites annonces
Nous faisons face depuis quelques mois à une recrudescence de tentatives d'arnaques dans les petites annonces. Suivez nos recommandations >
Payez en 3 ou 4 fois vos achats d'occasion
Achetez plus facilement les produits dont vous rêvez grâce au paiement en 3 ou 4x dans les petites annonces.
Notez AF !
Dites-nous ce que vous pensez d'AF sur notre page Trustpilot ! Nous lisons et répondons à tous les avis.
Ha oui mais là on parle de deux choses différentes a savoir de l'information et de son traitement.
Non, la on parle de reconnaissance faciale, donc de toute la chaine. Parler de RF sans parler de l'IA qui traite l'information, ca n'a aucun sens. On peut pas réduire la videosureveillance à une caméra.
C'est surtout les concepteurs des bases de données d'apprentissage pour les reconnaissances faciales qui ont mal fait leur boulot. Si dans la base d'apprentissage y'a que des blancs, ben l'algo a peu de chances d'identifier les personnes colorées. Rien à voir avec une conscience de l'algo, juste une base d'apprentissage foireuse.
0
Will Zégal
77284
Will Zégal
Membre depuis 23 ans
47285Posté le 04/02/2020 à 11:26:49
Non. C'est juste que les algos reproduisent les stéréotypes de ceux qui les programment.
2
Anonyme
47286Posté le 04/02/2020 à 11:32:42
Oui, donc le choix de la base étant sous-jacent aux programmeurs, on en revient un peu à dire la même chose non ?
0
Traumax
51839
Goncourt du Grouik
Membre depuis 19 ans
47287Posté le 04/02/2020 à 11:38:13
Quand une IA fait son apprentissage sur plusieurs milliards de photos, je sais pas si on peut encore parler de choix des programmeurs.
Oui, certes, mais quand t'as 150 To d'images a faire analyser, tu t'amuses pas a trier les noirs, les blancs, les latinos...
Tu prends ce que facebook te vends et t'y fous dans la bécane.
Après, je peux me tromper, je suis pas spécialiste.
C’est pas forcément que la base de données d’entraînement qui est problématique. Les choix dans le processing, l’algorithme d’entraînement et la validation de l’algorithme peuvent conduire à un biais.