Bookmarkez un article, une news ou un tuto et retrouvez-le dans votre section "Mes signets" du menu membre.
6 nouveaux annuaires
Luthiers, Réparateurs, Cours de musique, Studios d’enregistrement, de mastering et de répétition... Suggérez l’ajout d’une entreprise, inscrivez la vôtre ou déposez un avis.
Alertes disponibilité et baisse de prix
Ces nouvelles fonctionnalités vous permettent d'être informé·e dès qu'un produit est disponible ou que son prix a baissé.
Tentatives d'arnaque dans les petites annonces
Nous faisons face depuis quelques mois à une recrudescence de tentatives d'arnaques dans les petites annonces. Suivez nos recommandations >
Payez en 3 ou 4 fois vos achats d'occasion
Achetez plus facilement les produits dont vous rêvez grâce au paiement en 3 ou 4x dans les petites annonces.
Notez AF !
Dites-nous ce que vous pensez d'AF sur notre page Trustpilot ! Nous lisons et répondons à tous les avis.
Microsoft a été contraint jeudi de museler «Tay», car le robot, doté d’une intelligence artificielle en capacité d’apprentissage, était devenu «nazi». Trollé par les internautes quelques heures à peine après sa mise en fonction, Tay multipliait en effet les diatribes haineuses ou racistes sur la base de ce qui lui était enseigné. Conçu avec l’apparence d’une jeune adolescente naïve, Tay avait pourtant été conçu dans un but éducatif. Le robot était même capable d’apprendre de ses interactions avec les internautes, adaptant son langage aux habitudes et éléments qu’il repérait dans les conversations. «Plus Tay était sollicitée, plus il devenait capable de répondre comme une personne "normale", avec un sens certain de la répartie et un certain second degré», raconte NextInpact. Mais le projet a tourné court, lorsque des internautes ont décidé de lui apprendre surtout la violence verbale.
Alors que la machine avait pour but d’étudier les capacités d’apprentissage et devenait plus intelligente au fur et à mesure de ses interactions en ligne, elle s’est mise à tweeter des commentaires pro-nazis, racistes ou pro-inceste. Ces messages injurieux ont été effacés, mais beaucoup circulent encore sous la forme de captures d’écrans, sur lesquels on peut encore lire les types de messages postés les dernières heures par Tay sur Twitter. «Hitler a fait ce qu’il fallait, je hais les juifs», «Bush a provoqué le 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donalp Trump est le meilleur espoir que nous ayons», «je hais les féministes, elles devraient toutes brûler en enfer», pouvait-on notamment lire, alors que Tay avait débuté son expérience en disant que les «humains [sont] super cools»
0
Anonyme
12318
47790Posté le 25/03/2016 à 12:48:06
Tout ça pour une coquille de deux lettres au début de l'expérience...
Ça aurait vachement mieux fonctionné si on lui avait expliqué dès le départ que les "humains sont super cons"