Guess what?
A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda
https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global

Guess what?
A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda
https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global
I made another foray into the ethics of AI, this time with my colleagues Jan-Willem van der Rijt and Bram Vaassen.
https://arxiv.org/abs/2503.05723
We argue that some interactions with chatbots involve a kind of offense to users' dignity. When we treat chatbots as if they were fellow moral agents, we enter into an asymmetrical relation where we give moral recognition but cannot get any back. This is a failure of self-respect, a form of self-debasement.
Comments welcome!
From #ChatGPT to #Gemini: how #AI is rewriting the internet. Big players, including #Microsoft, with #Copilot, #Google, with Gemini, and #OpenAI, with #GPT-4o, are making AI #chatbot #technology previously restricted to test labs more accessible to the general public.
https://www.theverge.com/23610427/chatbots-chatgpt-new-bing-google-bard-conversational-ai
81% des travailleurs et travailleuses US n'utilisent pas l'IA au travail (genAI, chatbot). Celles et ceux qui le font travaillent souvent dans la donnée et dans le numérique.
Ce sont les plus jeunes qui s'en servent le plus, de la façon la plus avancée, mais les usages restent assez basiques dans l'absolu. https://www.nngroup.com/articles/ai-adoption-pew/
MINJA sneak attack poisons #AI models for other #chatbot users - https://www.theregister.com/2025/03/11/minja_attack_poisons_ai_model_memory/ "Nothing like an OpenAI-powered agent leaking data or getting confused over what someone else whispered to it"
Israel entwickelt ChatGPT-ähnliches Tool, das die Überwachung von Palästinensern zu einem Mittel der Kriegsführung macht
Die israelische Armee erstellt ein KI-Sprachmodell, das Millionen abgefangener Gespräche zwischen Palästinensern verwendet und den Prozess der Anklage und Verhaftung beschleunigen könnte, wie eine gemeinsame Untersuchung zeigt.
Die israelische #Armee entwickelt ein neues, #ChatGPT-ähnliches KI-Tool und trainiert es mit Millionen arabischer Gespräche, die durch die #Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden, wie eine Untersuchung des +972 Magazine, Local Call und des Guardian aufdecken konnte.
Das KI-Tool, das unter der #Schirmherrschaft von Unit 8200, einer #Eliteeinheit für #Cyberkriegsführung innerhalb des israelischen #Militärgeheimdienstes, entwickelt wird, ist ein sogenanntes Large Language Model (#LLM): ein maschinelles #Lernprogramm, das in der Lage ist, Informationen zu analysieren und Texte zu generieren, zu übersetzen, vorherzusagen und zusammenzufassen. Während öffentlich zugängliche LLMs, wie die Engine hinter ChatGPT, mit Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen an Informationen gefüttert, die über das #Alltagsleben der unter #Besatzung lebenden #Palästinenser gesammelt wurden.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call, und dem Guardian von drei israelischen #Sicherheitsquellen bestätigt, die über die Entwicklung des Modells informiert sind. Das Modell wurde in der zweiten Hälfte des vergangenen Jahres noch trainiert, und es ist unklar, ob es bereits eingesetzt wurde oder wie genau die Armee es einsetzen wird. Quellen erklärten jedoch, dass ein entscheidender Vorteil für die #Armee in der Fähigkeit des #Tools bestehen wird, große Mengen an #Überwachungsmaterial schnell zu verarbeiten, um „Fragen zu bestimmten Personen zu beantworten“. Wenn man bedenkt, wie die Armee bereits kleinere #Sprachmodelle einsetzt, ist es wahrscheinlich, dass das LLM die #Beschuldigung und #Verhaftung von Palästinensern durch #Israel weiter ausweiten könnte.
„KI verstärkt die Macht“, erklärte eine #Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. “Sie ermöglicht Operationen, bei denen die Daten von weitaus mehr Menschen genutzt werden, und ermöglicht so die Kontrolle der Bevölkerung. Dabei geht es nicht nur darum, Schussangriffe zu verhindern. Ich kann #Menschenrechtsaktivisten aufspüren. Ich kann den palästinensischen Bau in der Zone C [im Westjordanland] überwachen. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im #Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen.“
Die Entwicklung des Tools fand zwar vor dem aktuellen #Krieg statt, aber unsere Untersuchung ergab, dass die Einheit 8200 nach dem 7. Oktober israelische #Staatsbürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen um Hilfe bat, die bei #Technologiegiganten wie #Google, #Meta und #Microsoft arbeiteten. Mit der #Massenmobilisierung von #Reservisten zu Beginn des israelischen Angriffs auf #Gaza begannen Branchenexperten aus dem #Privatsektor, sich der Einheit anzuschließen – und brachten Wissen ein, das zuvor „nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war“, wie eine Sicherheitsquelle angab. (Als Antwort auf unsere Anfragen gab Google an, dass es „Mitarbeiter hat, die in verschiedenen Ländern Reservedienst leisten“, und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, „nicht mit Google in Verbindung steht“. Meta und Microsoft lehnten eine Stellungnahme ab.)
Laut einer Quelle wurde der #Chatbot der #Unit8200 mit 100 Milliarden Wörtern #Arabisch trainiert, die zum Teil durch die groß angelegte #Überwachung von Palästinensern durch das israelische #Militär gewonnen wurden – was Experten zufolge eine schwere Verletzung der palästinensischen Rechte darstellt. „Wir sprechen hier von hochpersönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Tool zu trainieren, das später dazu beitragen könnte, einen Verdacht zu begründen“, sagte Zach #Campbell, leitender #Technologieforscher bei Human Rights Watch, gegenüber @972mag #LocalCall und dem Guardian.
(...)
Weiterlesen in der Analyse von Yuval Abraham, Jerusalem und Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown)
→ Israel developing ChatGPT-like tool that weaponizes surveillance of Palestinians
https://www.972mag.com/israeli-intelligence-chatgpt-8200-surveillance-ai/
“[…] Unit 8200’s #chatbot has been trained on 100 billion words of #Arabic obtained in part through #Israel’s large-scale #surveillance of #Palestinians under the rule of its #military — which experts warn constitutes a severe violation of Palestinian #rights. “We are talking about highly personal information, taken from #people who are not suspected of any crime […]”
Can you find a more succinct example of how absolutely pointless AI chatbots are?
A Moscow-based disinformation network has infiltrated Western AI tools worldwide, flooding them with pro-Kremlin propaganda, according to a new study.
https://www.computing.co.uk/news/2025/ai/ai-chatbots-infected-russian-propaganda
Going LIVE on YouTube at 7 PM Central! I need a system that reads my chat messages aloud in real time—so we're building one from scratch using AI tools! This is the perfect chance to get introduced to AI coding and see it in action.
Don’t miss out—tune in and be part of the build!
DOGE Is Replacing Fired Workers With a Chatbot
https://gizmodo.com/doge-is-replacing-fired-workers-with-a-chatbot-2000573510
Worst. New coworker. Ever.
Quelle surprise ! (non)
Les chatbots IA ne ramènent quasiment pas de trafic aux éditeurs de sites
https://next.ink/174069/les-chatbots-ia-ne-ramenent-quasiment-pas-de-trafic-aux-editeurs-de-sites/
Chatbots Are Cheating on Their Benchmark Tests #ai #chatbot https://www.theatlantic.com/technology/archive/2025/03/chatbots-benchmark-tests/681929/
IA et Devoirs : un défi éducatif à relever ?
Faut-il interdire ou éduquer à l' #IA pour éviter que les élèves ne fassent faire leurs devoirs à un #chatbot?
Le numéro 3 #PauseCaféIA apporte des éléments de réflexion au débat
https://www.pedagogie.ac-aix-marseille.fr/jcms/c_11259069/fr/pause-cafe-ia-3
Wie alles begann: der erste Chatbot der Welt, Weizenbaums berühmtes ELIZA wurde nach Auffinden des originalen Quellcodes wieder zum Laufen gebracht.
https://arxiv.org/abs/2501.06707
Mit nur 420 Zeilen sicherlich auch im Unterricht behandelbar.
»Entzauberung – ChatGPT über alles? Das gefährliche Vertrauen in vermeintlich allwissende KI:
Faktenwissen? Recherche? Das war gestern. Wer in Diskussionen glänzen will, greift auf das Wissen von Chatbots zurück. Warum das hochproblematisch und oftmals einfach falsch ist«
Seid ihr auch überrascht odet gar schokiert und rechtfertigt euch nun?!??
/ironie