gualdo :privacypride: :cc:<p>Per alcuni gli <a href="https://mastodon.uno/tags/LLM" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LLM</span></a> sono gli oracoli digitali: si chiede e si hanno risposte</p><p>Uno studio di AI4TRUST ha dimostrato che <a href="https://mastodon.uno/tags/GPT" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>GPT</span></a>-4o, <a href="https://mastodon.uno/tags/Gemini" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Gemini</span></a>, <a href="https://mastodon.uno/tags/Llama" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Llama</span></a> e <a href="https://mastodon.uno/tags/Grok" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Grok</span></a> hanno fornito il 100% di risposte sbagliate a domande relative alla salute</p><p>I prompt erano costruiti per favorire l’errore, ma gli LLM non hanno applicato sistemi di controllo e verifica, rivelandosi inattendibili</p><p>Uno scenario ideale per gli agenti della <a href="https://mastodon.uno/tags/disinformazione" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>disinformazione</span></a></p><p><a href="https://mastodon.uno/tags/AI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>AI</span></a> <a href="https://mastodon.uno/tags/Bigtech" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Bigtech</span></a> <a href="https://mastodon.uno/tags/disinformation" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>disinformation</span></a> <a href="https://mastodon.uno/tags/misinformation" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>misinformation</span></a></p>