Facebook ist gezwungen, seine „unangemessenen“ generischen Auto-Antworten zu deaktivieren.

Facebook wurde herzlos gebrandmarkt, nachdem es Auto-Antworten als Reaktion auf die Live-Übertragung eines Shootings angeboten hat.

Der Social-Media-Riese wurde unter dem Markenzeichen „toxic tech“ geführt, nachdem er Antworten wie „so traurig“ geliefert hatte, dass die Nutzer nach den Krankenhausaufnahmen in Chicago am Montag auswählten.

Das Feature wurde von den Nutzern als „unangemessen“ bezeichnet und wurde nun nach Aufschrei über die Unempfindlichkeit des Unternehmens gegenüber tragischen Ereignissen abgeschaltet.

Die Schießerei im Krankenhaus von Chicago tötete vier Menschen, darunter einen Polizisten, der eine Hochzeit geplant hatte.

Tausende sahen den Live-Stream der aktuellen Nachrichten auf der Plattform, auf der ein Live-Shooter nach dem Zufallsprinzip im Krankenhaus schoss.

Die Funktion veranlasste die Benutzer, auf allgemeines Beileid zu klicken, einschließlich „herzzerreißend“ und „Was ist passiert?“, anstatt ihre eigenen sympathischen Nachrichten zu schreiben.

Facebook-Nutzer, die sich bei Twitter über das Vorhandensein der automatisierten Funktion beschwert haben.

Man schrieb: „Toxische Technologie auf dem Höhepunkt“.

Ein anderer sagte: „Automatische Reaktion auf Tragödien…. wo findet Facebook diese Idioten?

Ein Gadget-Blogger bei Next Web schrieb: „Wenn Sie auf das Kommentarfeld klicken, das das Live-Video begleitet, können Sie eine von mehreren herzzerreißenden Antworten auswählen – so herzzerreißend, dass Facebook Ihnen die Mühe genommen hat, sie überhaupt zu fühlen“.

Facebook generiert die Antworten selbst. Andere automatisierte Kommentare beinhalten „sicher bleiben“, „Hoffentlich ist jeder in Ordnung“, während andere nur eigenständige Emojis wie das Emoticon „Gebet“ sind.

Das Unternehmen hatte die Auto-Response-Funktion auf Live-Videostreams getestet, einschließlich solcher, die sensible Situationen wie Dreharbeiten und sexuelle Übergriffe betreffen.

Ein Facebook-Sprecher sagte gegenüber MailOnline: „Wir haben eine vorgeschlagene Kommentarfunktion für Live-Videos getestet.

Offensichtlich wurde dies nicht richtig implementiert und wir haben diese Funktion vorerst deaktiviert.

Buzzfeed News berichtete, dass die Live-Berichterstattung über einen Mann, der mindestens drei Frauen außerhalb eines katholischen Versorgungsunternehmens sexuell angegriffen hat, bevor er am Montag eine Frau tödlich erschoss, das Feature provozierte, Sätze wie „unglaublich“ und „Respekt“ vorzuschlagen.

Es schlug auch mehrere Emoticons vor, darunter einen schwitzenden Kopf, ein verlegenes Gesicht und ein weinendes Gesicht.

Es ist nicht klar, wie das System funktioniert, aber es könnte sein, dass Facebook überwacht, wie Menschen auf die Abdeckung reagieren, um ähnliche Reaktionen zu erzeugen.

Eine weitere Möglichkeit ist, dass der Algorithmus den Inhalt, den Titel und die Beschreibung des Videos automatisch verfolgt und unter Verwendung vorhandener Daten die entsprechende Antwort generiert.

Teilen Ist Liebe! ❤

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares