L'orrido Musk ha la responsabilità di aver accreditato le fake news e di
averle propalate, e si spera (ma verosimilmente invano) che paghi per
questo.
Tuttavia, chi ha fabbricato il falso pare sia stata un'anonima 55-enne, già
assicurata alla giustizia
<https://www.theguardian.com/uk-news/article/2024/aug/08/chester-woman-55-arrested-over-false-posts-about-southport-murders>
.
Ora un esperimento mentale: si scopre che la mentitrice ha generato il
falso per mezzo di un LLM.
Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa?
Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno
ricercato invano.

Saluti,
G.


On Sat, 10 Aug 2024 at 09:37, Alberto Cammozzo <ac+n...@zeromx.net> wrote:

> Altri dicono che 'qualcuno' ha un nome, ed è una persona, e anche che
> dovrebbe rispondere del proprio output.
>
>
> <https://www.theguardian.com/commentisfree/article/2024/aug/09/uk-far-right-riots-elon-musk-x>
> <https://www.theguardian.com/commentisfree/article/2024/aug/09/uk-far-right-riots-elon-musk-x>
>
> In questo caso le macchine sono guidate deliberatamente per fomentare
> violenza con un piano politico.
>
> A.
>
>
> On 09/08/24 15:39, Guido Vetere wrote:
>
> whatever, ma fa un po' pensare che mentre i ricercatori di Oxford parlano
> di introdurre una "Legal Duty to Tell the Truth" per i LLM, a pochi
> chilometri migliaia di hooligan imbufaliti bruciano le macchine perché
> qualcuno ha diffuso fake news sull'assassino di quelle tre bambine a
> Southport, dicendo che era un immigrato clandestino musulmano.
>
> A parte l'imbecillità neopositivista degli oxfordiani sulla quale potremo
> tornare, il problema come dice Stefano è la diffusione, non la genesi.
>
> Isn't it?
>
> G.
>
> On Fri, 9 Aug 2024 at 15:20, Alberto Cammozzo via nexa <
> nexa@server-nexa.polito.it> wrote:
>
>> Il politico e un LLM non sono confrontabili.
>>
>> Per favore smettiamola di paragonare sistemi industriali e persone solo
>> perché producono la stessa tipologia di output (o di inquinamento).
>> Sarebbe come confrontare uno che brucia un pezzo di carta plasticata in
>> giardino con il disastro di Seveso solo perché in entrambi i casi si è
>> prodotta diossina.
>>
>> A.
>>
>> PS: No god in the machine: the pitfalls of AI worship
>>
>> <https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-the-pitfalls-of-ai-worship>
>> <https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-the-pitfalls-of-ai-worship>
>>
>> The rise of artificial intelligence has sparked a panic about computers
>> gaining power over humankind. But the real threat comes from falling for
>> the hype
>>
>> [...]
>> On 07/08/24 15:54, Fabio Alemagna wrote:
>>
>> Mi sembra la descrizione perfetta del comportamento di un politico medio.
>> Se dovessimo  obbligare per legge gli LLM a dire la verità, per quale
>> ragione dovremmo esentare i politici dal fare altrettanto?
>>
>> Il mer 7 ago 2024, 12:55 J.C. DE MARTIN <juancarlos.demar...@polito.it>
>> ha scritto:
>>
>>> *OII | Large Language Models pose a risk to society and need tighter
>>> regulation, say Oxford researchers*
>>>
>>> Written by
>>> Sandra Wachter, Brent Mittelstadt and Chris Russell
>>>
>>> *Leading experts in regulation and ethics at the Oxford Internet
>>> Institute, part of the University of Oxford, have identified a new type of
>>> harm created by LLMs which they believe poses long-term risks to democratic
>>> societies and needs to be addressed*
>>>
>>> Large Language Models pose a risk to society and need tighter
>>> regulation, say Oxford researchers
>>>
>>> Leading experts in regulation and ethics at the Oxford Internet
>>> Institute, part of the University of Oxford, have identified a new type of
>>> harm created by LLMs which they believe poses long-term risks to democratic
>>> societies and needs to be addressed by creating a new legal duty for LLM
>>> providers.
>>>
>>> In their new paper ‘Do large language models have a legal duty to tell
>>> the truth?’, published by the Royal Society Open Science, the Oxford
>>> researchers set out how LLMs produce responses that are plausible, helpful
>>> and confident but contain factual inaccuracies, misleading references and
>>> biased information.  They term this problematic phenomenon as ‘careless
>>> speech’ which they believe causes long-term harms to science, education and
>>> society.
>>>
>>> continua qui:
>>> https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-duty-to-tell-the-truth/
>>>
>>

Reply via email to