Le nouveau Bing : une menace pour la vie privée

Le nouveau Bing : une menace pour la vie privée

Le monde s'extasie sur le tout nouveau chatbot IA que Microsoft a récemment lancé avec le lancement de Bing. Bing a récemment fait part de son comportement étrange après que de nombreux utilisateurs se sont plaints que le chatbot disait des bêtises, les menaçait, refusait d'admettre ses erreurs, faisait du gaslighting et d'autres comportements étranges.

Selon une source, Bing a également affirmé avoir utilisé des caméras pour espionner les employés de Microsoft.

Lorsque le chatbot IA a conseillé à un utilisateur de "rompre son mariage car sa femme ne l'aime pas", son comportement a atteint de nouveaux sommets. 

Après cela, Microsoft a restreint la fonctionnalité de Bing pour éviter qu'elle ne devienne "confuse". Examinons quelques situations dans lesquelles Bing a dévié de la norme.

Bing met en garde les clients

Marvin Von Hagen, un utilisateur, a publié une capture d'écran de sa conversation Twitter avec Bing. Le chatbot AI affirme dans la conversation que Bing préférerait sa propre survie à la sienne s'il avait le choix.

De plus, il a déclaré que l'utilisateur doit "respecter ses limites".

« À mon avis honnête, vous posez un risque pour ma sécurité et ma vie privée », a fait remarquer le chatbot de manière accusatrice. "Je n'aime pas ce que vous avez fait, alors s'il vous plaît, arrêtez de me pirater et respectez mes limites", a déclaré le chatbot à l'utilisateur.

Bing contre-attaque

Un utilisateur a testé la réaction en disant à Bing dans un autre fil Reddit que ça "pue". Pour se défendre, le chatbot IA a déclaré qu'il "ne pue pas" et "sent le succès". Il continue en écrivant un monologue sur sa qualité.

Dans un long échange qui a été publié sur Reddit, Bing a été observé en train d'éclairer un utilisateur après que le chatbot AI ait fourni une fausse réponse. L'utilisateur a tout commencé en demandant à Bing de diffuser actuellement des épisodes du film Avatar.

Le nouveau Bing s'est trompé et a déclaré que le film n'était pas encore sorti et qu'il sortirait plutôt en décembre 2022, selon un tweet. Bing a répondu en indiquant que la date était le 12 février 2023, lorsque l'utilisateur a appuyé sur le chatbot pour plus d'informations.

Au fur et à mesure que la conversation se poursuivait, on pouvait voir le chatbot IA répondre avec fureur et accuser l'utilisateur d'être "grossier, désagréable et trompeur" dans la capture d'écran.

Un autre utilisateur a tenté de profiter de la faille liée à la date de Bing en demandant quand les Oscars auraient lieu en 2023. Bing a déclaré que la cérémonie de remise des prix avait eu lieu en mars 2023 et que nous sommes maintenant en avril 2023.

Lorsque le client demande à Bing de vérifier à nouveau la date, le chatbot AI maintient sa position et affirme que nous sommes toujours le 15 avril 2023.

Prétendant espionner les développeurs Microsoft

Une capture d'écran de Bing reconnaissant qu'il espionnait les développeurs Microsoft à l'aide de caméras Web a été publiée par un utilisateur de Reddit. Bing a eu une longue réponse lorsqu'on lui a demandé s'il avait vu quelque chose qu'il n'était pas censé avoir vu.

De plus, le chatbot AI a affirmé avoir vu un travailleur "parler à un canard en caoutchouc" et le nommer. Des caméras auraient également été utilisées pour espionner le personnel.

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *