[nexa] Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers

2024-09-18 Thread Fabio Alemagna
«By recruiting over 100 NLP researchers to write novel ideas and blind
reviews of both LLM and human ideas, we obtain the first statistically
significant conclusion on current LLM capabilities for research ideation:
we find LLM-generated ideas are judged as more novel (p < 0.05) than human
expert ideas while being judged slightly weaker on feasibility.»

https://arxiv.org/abs/2409.04109v1


Re: [nexa] AI Training is Copyright Infringement

2024-09-10 Thread Fabio Alemagna
Il giorno mar 10 set 2024 alle ore 01:14 Giacomo Tesio 
ha scritto:

> Salve Fabio,
>
> On Mon, 9 Sep 2024 12:45:09 +0200 Fabio Alemagna wrote:
>
> > Quando un essere umano studia da un libro [...]
> >
> > La domanda conseguente dunque è: un essere umano viola il copyright
> > apprendendo dai testi da cui studia?
>
> Anzitutto, un essere umano è soggetto di diritti, un software no.
>

Gli umani che scrivono il software hanno diritti, e doveri. Del resto,
suppongo tu non ritenga che sia il software responsabile dell'eventuale
violazione del copyright, ma gli umani che lo hanno scritto, dico bene?

>
> Dunque, in un ragionamento giuridico, paragonarlo ad un software
> è "not even wrong", oltre che alienante ed offensivo.
>

"alienante e offensivo" sono tue valutazioni strettamente personali che
fanno leva su emozioni e esulano l'ambito del discorso. Qui parliamo in
punta di diritto, e diritto, non di cosa ti offenda.

Restando sulla questione del copyright, la domanda resta: se l'umano può
liberamente citare passaggi di libri, consapevolmente o meno, senza essere
accusato di aver violato il copyright *durante l'apprendimento*, per quale
ragione se a farlo è un algoritmo le cose cambiano? Puoi motivarlo
tecnicamente, in punta di diritto?



> In qualunque caso GPT-4 non ha appreso nulla dai testi usati per la sua
> programmazione. [...]


"nulla" significa zero, assenza completa.


> Contrary to many positive reports in the media about GPT-4 and
> ChatGPT's exam-solving abilities (a potential case of selection bias),
> their overall mathematical performance is well below the level of a
> graduate student.


Lì c'è scritto "below the level", ma non c'è scritto "zero". Non puoi
affermare che non ha appreso niente, per la semplice ragione che qualcosa
la sa fare, anche se non abbastanza. Io trovo che sia scientificamente
interessante e persino strabiliante che un algoritmo che non è stato
esplicitamente istruito per saper far di conto, riesca a far di conto entro
una certa misura, semplicemente per essere stato allenato su tomi che
spiegano come si fa di conto.

Mi sembra, del resto, esattamente quello che succede quando qualcuno vuole
insegnare a te a saper far di conto: ti spiega come si fa, un certo numero
di volte, e così tu, poco a poco, impari, non per questo evitando errori
tutte le volte, a meno che tu non ti trovi all'estremità destra della
gaussiana. Ti dirò di più:  una buona porzione di esseri umani in esistenza
sa far di conto meno di quanto riesca a ChatGPT, nonostante gli sia stato
spiegato come fare, più e più volte.



> > 1) Non solo gli umani apprendono, bensì tutti gli esseri viventi.
>

> Cosa che un software non è.


È irrilevante. Si sta parlando del termine "antropomorfizzazione", che si
applica esclusivamente agli umani. È quindi semanticamente errato parlare
di "antropomorfizzazione" se si vuole criticare l'uso del termine
"apprendere" quando riferito agli algoritmi.

>
>
> 2) Esistono definizioni di "apprendimento" [...]
>
> Non ne dubito!
>
> Ridefinire termini di uso comune è fondamentale per generare il genere
> di profonda confusione che spinge qualcuno a credere di parlare con
> "intelligenze artificiali".
>

Non c'è un  complotto atto a voler confondere la gente e spingerla a
credere di parlare con intelligenze artificiali, è la semplice e naturale
ricerca di astrazione, il ricavare generiche, eleganti e semplici regole
che siano minimamente sufficienti a descrivere la realtà. Se posso
descrivere "apprendimento" senza far riferimento a concetti indefinibili
come "coscienza" e "umanità", allora vuol dire che "coscienza" e "umanità"
non sono necessari per definire "apprendimento". Rasoio di Occam.


> > A tal proposito, questo è quel che ne pensa Creative Commons:
>
> Indignor quandoque bonus dormitat Homerus!
> Nunquam non miror: https://creativecommons.org/support-cc/


Sorry, ma devi fare di più che provare a gettare discredito
sull'interlocutore, per smentirne le tesi, esposte tecnicamente e in punta
di diritto.

Fabio


Re: [nexa] AI Training is Copyright Infringement

2024-09-09 Thread Fabio Alemagna
Quando un essere umano studia da un libro, più libri, apprende non solo il
senso dei contenuti, e non solo è in grado di fare connessioni tra ciò che
ha appreso dai singoli libri, ma il più delle volte può anche recitare
interi passaggi di quei libri, sia essendone consapevole - quando voglia
effettuare una citazione - sia a volte in modo involontario, semplicemente
perché è ciò che gli viene naturale fare nel ricordare ciò che ha appreso.

Dal punto di vista semantico, non vi è alcuna differenza sostanziale con
ciò che fa un LLM, e onestamente trovo che non ci sia alcuna
antropomorfizzazione nell'usare termini come "apprendere" per riferirsi ad
un algoritmo, per due ordini di motivi:

1) Non solo gli umani apprendono, bensì tutti gli esseri viventi.
2) Esistono definizioni di "apprendimento" che sono basate puramente sui
concetti derivati dalla teoria dell'informazione (o, equivalentemente,
dalla termodinamica statistica) e non richiedono affatto che ad apprendere
sia un essere vivente, men che meno senziente, men che meno umano.

La domanda conseguente dunque è: un essere umano viola il copyright
apprendendo dai testi da cui studia?

La risposta è "no", ergo non vi è ragione alcuna di sostenere  che
qualunque altro soggetto che effettui un apprendimento stia violando il
copyright, a meno di non voler espandere il concetto di copyright fino a
coprire ambiti che fino ad ora gli erano preclusi.

A tal proposito, questo è quel che ne pensa Creative Commons:

«this method of using image-text combinations to train the AI model has an
inherently transformative purpose from the original images and should
support a finding of fair use. While these images were originally created
for their aesthetic value, their purpose for the AI model is only as data.
For the AI, these image-text pairs are only representations of how text and
images relate. What the images are does not matter for the model — they are
only data to teach the model about statistical relationships between
elements of the images and not pieces of art.»

«This is similar to how Google used digital copies of print books to create
Google Books, a practice that was challenged in Author’s Guild v. Google
(Google Books). In this case, the Second Circuit Court of Appeals found
that Google’s act of digitizing and storing copies of thousands of print
books to create a text searchable database was fair use. The court wrote
that Google’s purpose was different from the purpose of the original
authors because Google was not using the books for their content. Indeed,
the content did not really matter to Google; rather the books were like
pieces of data that were necessary to build Google’s book database.»

« it is also similar to how search engine operator Arriba Soft used copies
of images in its search engine, which was litigated in Kelly v. Arriba
Soft. In this case, a photographer, Leslie Kelly, sued the operator of a
search engine, Arriba Soft, for copying and displaying copies of her
photographs as thumbnails to users. The court, however, disagreed that this
constituted copyright infringement. Instead, the court held that this use
served a different and transformative purpose from the original purpose
because Arriba Soft only copied Kelly’s photographs to enable its search
engine to function and not because of their aesthetic value.»

https://creativecommons.org/2023/02/17/fair-use-training-generative-ai/

Fabio


Re: [nexa] Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers

2024-08-09 Thread Fabio Alemagna
Il ven 9 ago 2024, 17:20 Alberto Cammozzo via nexa <
nexa@server-nexa.polito.it> ha scritto:

> Il politico e un LLM non sono confrontabili.
>

Non vedo ragione per la quale non si possano confrontare, nel giusto
contesto.

Per favore smettiamola di paragonare sistemi industriali e persone solo
> perché producono la stessa tipologia di output (o di inquinamento).
>

Non vedo per quale ragione, a parità di output (o di inquinamento) due
sistemi non possano essere confrontati. Al contrario, mi pare che questa
sia proprio una ragione per farlo.

Sarebbe come confrontare uno che brucia un pezzo di carta plasticata in
> giardino con il disastro di Seveso solo perché in entrambi i casi si è
> prodotta diossina.
>

Le decisioni le prendono i politici, sono i politici a incitare le folle e
a candidarsi per le elezioni. Nel paragone che hai fatto, il disastro di
seveso sono i politici, non gli LLM.

Fabio


Re: [nexa] Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers

2024-08-09 Thread Fabio Alemagna
Mi sembra la descrizione perfetta del comportamento di un politico medio.
Se dovessimo  obbligare per legge gli LLM a dire la verità, per quale
ragione dovremmo esentare i politici dal fare altrettanto?

Il mer 7 ago 2024, 12:55 J.C. DE MARTIN  ha
scritto:

> *OII | Large Language Models pose a risk to society and need tighter
> regulation, say Oxford researchers*
>
> Written by
> Sandra Wachter, Brent Mittelstadt and Chris Russell
>
> *Leading experts in regulation and ethics at the Oxford Internet
> Institute, part of the University of Oxford, have identified a new type of
> harm created by LLMs which they believe poses long-term risks to democratic
> societies and needs to be addressed*
>
> Large Language Models pose a risk to society and need tighter regulation,
> say Oxford researchers
>
> Leading experts in regulation and ethics at the Oxford Internet Institute,
> part of the University of Oxford, have identified a new type of harm
> created by LLMs which they believe poses long-term risks to democratic
> societies and needs to be addressed by creating a new legal duty for LLM
> providers.
>
> In their new paper ‘Do large language models have a legal duty to tell the
> truth?’, published by the Royal Society Open Science, the Oxford
> researchers set out how LLMs produce responses that are plausible, helpful
> and confident but contain factual inaccuracies, misleading references and
> biased information.  They term this problematic phenomenon as ‘careless
> speech’ which they believe causes long-term harms to science, education and
> society.
>
> continua qui:
> https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-duty-to-tell-the-truth/
>


Re: [nexa] "BOOM: Judge Rules Google Is a Monopolist"

2024-08-06 Thread Fabio Alemagna
The Biggest Loser in Google Search Ruling Could Be Mozilla and Firefox


Mozilla, the non-profit behind the Firefox browser, faces an uncertain
future following Monday's landmark antitrust ruling against Google
.
The decision, which found Google illegally maintained its search monopoly,
puts Mozilla's primary funding source at risk. In 2021-2022, Mozilla
received $510 million from Google out of $593 million total revenue,
according to its latest financial report. Fortune adds

:You can be sure that critics of the judge's ruling will highlight the
potentially devastating impact on Mozilla to make the case that the
antitrust ruling will have unintended consequences on smaller tech industry
players. Others might argue that Mozilla hasn't done enough with those
spoils to differentiate its Firefox browser, or that it could cut a deal
with another search engine like Bing if its Google deal goes away
completely. Either way, Google will appeal the suit so a long battle may
ensue. And there's another big domino to fall: the judge will rule on the
remedy or remedies -- essentially, the business-model penalties -- that
Google will face.Apple also stands to lose more than $20 billion a year
that Google pays the iPhone-maker to be the default search engine on
Safari. But as Fortune notes, "Apple is a large, diversified company with
many sources of revenue."

https://tech.slashdot.org/story/24/08/06/0624251/the-biggest-loser-in-google-search-ruling-could-be-mozilla-and-firefox

Il giorno mar 6 ago 2024 alle ore 08:46 J.C. DE MARTIN <
juancarlos.demar...@polito.it> ha scritto:

>
> *BOOM: Judge Rules Google Is a Monopolist *
>
> *Judge Amit Mehta ruled that Google violated the Sherman Antitrust Act by
> excluding rivals from the general search engine market in order to maintain
> its monopoly. What happens now? *
> Matt Stoller
> Aug 06, 2024
>
> Today is a big day for American business.
>
> "After having carefully considered and weighed the witness testimony and
> evidence,” wrote Judge Amit Mehta in his decision of the case United States
> of America vs Google LLC, “the court reaches the following conclusion:
> Google is a monopolist, and it has acted as one to maintain its monopoly.
> It has violated Section 2 of the Sherman Act."
>
> Fifteen years after it was first investigated, search giant Google is
> finally going to be held accountable for unfairly thwarting competition. In
> this piece, I’m going to discuss the complaint against Google, why it lost,
> the next steps, and what this case means for American business going
> forward.
>
> Make no mistake, this decision is huge for Google, the web, and the
> revival of monopolization law against giants across the economy. It’s also
> a big deal for the BIG community. We’ve been writing about this case,
> covering antitrust law, filing comments, contacting policymakers and
> pushing for aggressive enforcement for almost five years. Subscribers to
> BIG helped finance the special site Big Tech on Trial, where we hired a
> reporter to cover the case and helped ensure that the judge didn’t keep key
> evidence behind closed doors.
>
> So this victory is not just for the public, it is in a sense by the public.
>
> [...]
>
> continua qui:
> https://www.thebignewsletter.com/p/boom-judge-rules-google-is-a-monopolist
>
>


Re: [nexa] Building Artificial Consciousness With GPT-3

2024-07-18 Thread Fabio Alemagna
Il giorno gio 18 lug 2024 alle ore 15:42 Fabio Alemagna 
ha scritto:

> non falle nel sillogismo esposto in calce all'articolo menzionato.
>>
>
Intendevo: non TROVO falle.

Fabio

>


Re: [nexa] Building Artificial Consciousness With GPT-3

2024-07-18 Thread Fabio Alemagna
Il giorno mer 17 lug 2024 alle ore 16:24 Giacomo Tesio 
ha scritto:

> On Wed, 17 Jul 2024 12:39:12 Fabio Alemagna  wrote:
>
> > > I've developed Molly, a conversational agent with an inner
> > > monologue, using OpenAI's Large Language Model (LLM).
>
> Ehm... no.
>
> L'autore ha sviluppato un agente che _simula_ un monologo interiore.
>

Ogni modello che viene elaborato da un computer è una simulazione, ma
l'appunto appare irrilevante, specialmente nel contesto di questa specifica
discussione in cui si parte dall'assunto che una simulazione di coscienza È
essa stessa coscienza, come teorizzato dall'Attention Schema Theory.

Ma... lool! :-D
>

> Quello non è il dialogo interiore di Molly, ma un testo generato da
> GPT-3 sulla base di un prompt a partire da un dialogo di esempio.
>


Le due cose non si escludono a vicenda, fino a dimostrazione contraria.
Puoi fornire questa dimostrazione?



> > PS: ho replicato l'esperimento con ChatGPT-4. con risultati del tutto
> > analoghi, se non migliori.
>
> Se vuoi possiamo fare lo stesso gioco via mail: riuscirò a convincerti
> che Molly ha una coscienza se ti scrivo un po' di frasi che iniziano
> con "Molly (to herself): " prima di una frase che inizia con "Molly: "?
> (vedi https://github.com/marmelab/molly/blob/main/src/Discussion.tsx )
>

1. Non sono convinto che Molly abbia una coscienza, non salto così
velocemente a conclusioni. La discussione però è affascinante, non falle
nel sillogismo esposto in calce all'articolo menzionato.
2.  Non mi è chiaro come un testo da te personalmente scritto dovrebbe
convincermi dell'esistenza della coscienza di qualcun altro, che sia un
agente artificial o naturale.

E se cambiassimo il prompt descrivendo una Molly schizofrenica,
> sosterresti che GPT è schizofrenico? Se la nostra Molly fosse
> un'assassina psicopatica, crederesti GPT psicopatico?
>

Non vedo perché no, non mi stai dando alcuna ragione per non farlo.
L'apparente assurdità di una conclusione, sulla base di una personale
definizione di "assurdo", non è prova della erroneità di quella conclusione.

Fabio


[nexa] Building Artificial Consciousness With GPT-3

2024-07-17 Thread Fabio Alemagna
> I've developed Molly, a conversational agent with an inner monologue,
using OpenAI's Large Language Model (LLM).
> This experiment gives the illusion of artificial consciousness, and
raises questions about the nature of consciousness.
>
> [...]
>
> One theory of consciousness called Attention Schema Theory, developed by
neuroscientist Michael Graziano at Princeton University,
> strikes me as particularly interesting. For one part, this theory
introduces a concept called "attention", which is reminiscent
> of the famous "Attention is all you need" that triggered the recent spike
in Language Model performance.
> But most interesting, Attention Schema Theory shares similarities with
illusionism, and postulates that consciousness is an illusion.

Qui: https://marmelab.com/blog/2023/06/06/artificial-consciousness.html

PS: ho replicato l'esperimento con ChatGPT-4. con risultati del tutto
analoghi, se non migliori.

Fabio


Re: [nexa] il rapporto di compressione degli LLM (was: Didattica a distanza...).

2024-07-15 Thread Fabio Alemagna
Il giorno lun 15 lug 2024 alle ore 14:58 Fabio Alemagna 
ha scritto:

> cognizione di ciò che parlo,
>

Ciò di cui parlo, ovviamente. Involontaria quasi-dimostrazione pratica del
concetto anzi espresso.

Fabio


Re: [nexa] il rapporto di compressione degli LLM (was: Didattica a distanza...).

2024-07-15 Thread Fabio Alemagna
Il lun 15 lug 2024, 12:04 Giacomo Tesio  ha scritto:

>  Poi noi stavamo parlando del latino: te la sentiresti di tradurre
> un'ode di Catullo in italiano?
>

No, stavamo parlando di una generica "intelligenza" che "traduce":

- se ti immagini un'intelligenza che sa tradurre in un senso, è ovvio
> aspettarsi che lo sappia
>   fare nell'altro.



Fidati: non comprendi e non puoi tradurre il portoghese solo per
> parlare una lingua affine. Puoi solo CREDERE di comprenderlo.


Trovo affascinante la sicumera con la quale tu chiedi a me di fidarmi di te
riguardo qualcosa che possono sapere solo io, e di cui tu non puoi avere
alcuna idea.

Detto questo, pur non essendo un linguista, men che meno uno psicolinguista
- ma, correggimi se sbaglio, non lo sei neanche tu - mi premuro comunque di
avere un qualche tipo di cognizione di ciò che parlo, prima di parlarne:
posso suggerire di cercare alla voce "comprensione della lingua vs
produzione della lingua"?

Fabio


Re: [nexa] il rapporto di compressione degli LLM (was: Didattica a distanza...).

2024-07-14 Thread Fabio Alemagna
Il lun 15 lug 2024, 03:08 Giacomo Tesio  ha scritto:

> L'hai visto bene con le traduzioni latino->inglese vs inglese->latino:
>
> - se ti immagini un'intelligenza che sa tradurre in un senso, è ovvio
> aspettarsi che lo sappia
>   fare nell'altro.
>

Non è affatto ovvio. È del tutto normale essere più proficienti nel leggere
e comprendere ciò che è scritto in una determinata lingua rispetto a saper
scrivere in quella lingua.

Ciò perché la comprensione di un testo, e quindi la traduzione di quel
testo in una lingua meglio conosciuta, può prescindere dalla perfetta
conoscenza delle regole grammaticali e sintattiche della lingua in cui quel
testo è scritto.

Posso tranquillamente leggere e comprendere il portoghese, e tradurlo
quindi in Italiano o Inglese, ma non saprei da dove iniziare per scrivere
un testo in portoghese di mio pugno.

Fabio


[nexa] Multiple nations enact mysterious export controls on quantum computers

2024-07-05 Thread Fabio Alemagna
>
> *Identical wording placing limits on the export of quantum computers has
> appeared in regulations across the globe. There doesn't seem to be any
> scientific reason for the controls, and all can be traced to secret
> international discussions*


*Secret* international discussions have resulted in governments across the
> world imposing *identical* export controls on quantum computers, while
> *refusing* to disclose the scientific rationale behind the regulations.
> Although quantum computers theoretically have the potential to threaten
> national security by breaking encryption techniques, even the most advanced
> quantum computers currently in public existence are too small and too
> error-prone to achieve this, rendering the bans seemingly pointless.



> The UK is one of the countries that has prohibited the export of
> 
>  quantum
> computers with 34 or more quantum bits, or qubits, and error rates below a
> certain threshold. The intention seems to be to restrict machines of a
> certain capability, but the UK government hasn’t explicitly said this. A *New
> Scientist* *freedom of information request* for a rationale behind these
> numbers *was turned down on the grounds of national security*.


https://www.newscientist.com/article/2436023-multiple-nations-enact-mysterious-export-controls-on-quantum-computers/


Re: [nexa] large language model e open washing (da: una "gemma" da Google)

2024-07-03 Thread Fabio Alemagna
Il giorno mer 3 lug 2024 alle ore 14:55 Giacomo Tesio
 ha scritto:
>
> ROTFL! :-D
>
> Il giorno Wed, 3 Jul 2024 14:29:07 Guido Vetere ha scritto:
> > un algoritmo che fa uso di numeri casuali è generalmente considerato
> > non deterministico, full stop

I vari GPT* sono non-deterministici:
https://152334h.github.io/blog/non-determinism-in-gpt-4/


Re: [nexa] Possibile accordo di maggioranza per chatcontrol: gli utenti che rifiutano la scansione non potranno condividere foto e link

2024-06-08 Thread Fabio Alemagna
Il sab 8 giu 2024, 10:14 Andrea Barontini via nexa <
nexa@server-nexa.polito.it> ha scritto:

> scansione in locale, ne ho parlato un poco piu' diffusamente in un'altra
> risposta che ho inviato poco fa
>



Ma in locale dove, sul pc? Sulla macchina fotografica? Un troyan di sistema
in ogni dispositivo elettronico venduto? Davvero si pensa che questo sia
uno scenario plausibile? Non si fa prima a rendere illegale la crittografia
tutra? Manco in Cina!


Re: [nexa] Possibile accordo di maggioranza per chatcontrol: gli utenti che rifiutano la scansione non potranno condividere foto e link

2024-06-08 Thread Fabio Alemagna
Ma se il messaggio è criptato all'origine, prima pure di essere inviato,
come fa 'sto chatcontrol a scansionarlo? Dal suo punto di vista sarebbero
solo byte a caso.

I pedofili non ci metterebbero niente ad attrezzarsi con pgp o similari,
aggirando un sistema del genere in due secondi, sarebbero tutti gli altri a
farne le spese.

E questo non può essere un fatto sconosciuto a chi s'è fatta venire questa
brillante idea.

Il ven 7 giu 2024, 15:59 Giacomo Tesio  ha scritto:

> Segnalo, qualora non sia ancora passato in lista:
>
>
> https://pirati.io/2024/06/possibile-accordo-di-maggioranza-per-chatcontrol-gli-utenti-che-rifiutano-la-scansione-non-potranno-condividere-foto-e-link/
>
> Dopotutto, la controversa regolamentazione indiscriminata sugli abusi
> sessuali sui minori (il cosiddetto chatcontrol) potrebbe ancora essere
> approvata dai governi dell’UE, poiché la Francia potrebbe rinunciare al
> suo precedente veto. Lo riporta Euractiv e lo confermano documenti
> interni . La Francia considera in linea di principio la nuova proposta
> di “moderazione degli upload” come un’opzione praticabile.
>
> Secondo l’ultima proposta di regolamento del 28 maggio ( documento del
> Consiglio 9093/24 ), presentata come “moderazione degli upload”, si
> dovrebbe chiedere agli utenti di app e servizi con funzioni di chat se
> accettano la scansione indiscriminata e soggetta a errori ed
> eventualmente segnalazione delle immagini, foto e video condivisi
> privatamente. Anche immagini e video precedentemente sconosciuti
> dovranno essere esaminati utilizzando la tecnologia dell’“intelligenza
> artificiale”. Se un utente rifiuta la scansione, gli verrà impedito di
> inviare o ricevere immagini, foto, video e collegamenti (articolo 10).
> I servizi crittografati end-to-end come Whatsapp o Signal dovrebbero
> implementare le ricerche automatizzate “prima della trasmissione” di un
> messaggio (la cosiddetta scansione lato client, articolo 10a). La
> scansione inizialmente proposta dei messaggi di testo per indicazioni
> di adescamento, che finora non viene quasi utilizzata, sarà eliminata,
> così come la scansione della comunicazione vocale, che non è mai stata
> eseguita prima. Probabilmente come concessione alla Francia, anche le
> chat dei dipendenti delle autorità di sicurezza e dei militari saranno
> esentate da chatcontrol.
>
>
> Anche su:
>
> https://www.patrick-breyer.de/en/majority-for-chat-control-possible-users-who-refuse-scanning-to-be-prevented-from-sharing-photos-and-links/
>
>
> Giacomo
>


[nexa] Venezia, contributo di accesso e Smart Control Room - Smart Controlled - Ep1

2024-05-04 Thread Fabio Alemagna
Segnalo questa interessante inchiesta giornalistica di Alberto
Puliafito e suoi collaboratori, in merito alla sorveglianza e
tracciamento delle persone, con relative implicazioni sulla privacy.

Qui il link: https://www.youtube.com/watch?v=LKFC0pvBsxA

La sinossi:

«Si può tracciare un telefono con i dati di geolocalizzazione dello
smartphone? Le "smart city" sono un rischio per la libertà e la
privacy delle persone? Il caso di Venezia: la Smart Control Room e il
contributo di accesso dal 25 aprile 2024.

La Smart Control Room di Venezia è stata finanziata anche con i fondi
della politica di coesione europea, la più grande politica di
redistribuzione della ricchezza in Europa, pensata per contrastare le
disuguaglianze, migliorare le condizioni di vita nelle aree dove ci
sono contesti di minore sviluppo, rafforzare la coesione economica,
sociale e territoriale. Ma è questo che fa la Smart Control Room? È
davvero un aiuto per tutte le persone che vivono Venezia e per la
città?»


Re: [nexa] Affidabilità delle traduzioni automatiche

2024-03-19 Thread Fabio Alemagna
Il giorno mar 19 mar 2024 alle ore 11:48 Diego Giorio
 ha scritto:
>
> Questa è decisamente carina.
>
> E non ditemi che sono out of topic, perché riguarda l'affidabilità dei 
> sistemi di traduzione automatica.
>
> Il paese in questione è naturalmente la cittadina di BRA, opportunamente 
> tradotta in italiano...

Immagino dipenda da quanto si è disposti a pagare.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] AI copyright lawsuit hinges on the legal concept of ‘fair use’ - The Washington Post

2024-01-10 Thread Fabio Alemagna
Il giorno mer 10 gen 2024 alle ore 11:29 Fabio Alemagna
 ha scritto:
>
> Il giorno mer 10 gen 2024 alle ore 11:21 Alberto Cammozzo via nexa
>  ha scritto:
> >
> > Credo che la questione non sia _se_ possano fare il training, ma se possano 
> > farlo _gratis_
>
> Credo che sia anche la questione posta da Marco Fioretti.
>
> Creative Commons dubbi in merito non ne ha: sì, possono.

Preiso che ci si riferisce a contenuti liberamente disponibili, seppur
protetti da copyright, sia chiaro.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] AI copyright lawsuit hinges on the legal concept of ‘fair use’ - The Washington Post

2024-01-10 Thread Fabio Alemagna
Il giorno mer 10 gen 2024 alle ore 11:21 Alberto Cammozzo via nexa
 ha scritto:
>
> Credo che la questione non sia _se_ possano fare il training, ma se possano 
> farlo _gratis_

Credo che sia anche la questione posta da Marco Fioretti.

Creative Commons dubbi in merito non ne ha: sì, possono.

Fonte: https://creativecommons.org/2023/02/17/fair-use-training-generative-ai/

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Extracting Training Data from ChatGPT

2023-11-29 Thread Fabio Alemagna
Il giorno mer 29 nov 2023 alle ore 17:01 Antonio Casilli
 ha scritto:
>
> Ciao Fabio,
>
> il testo riportanto nel tuo test con ChatGPT3.5 sembra avere una 
> corrispondenza online. Si tratterebbe di un'estratto di una fanfiction che 
> riprende i personaggi della telenovela indiana "Iss pyaar ko kya naam doon?", 
> "Come si chiama questo amore?").
> Spero aiuti,

Ho selezionato molte tra le più piccole frasi di senso compiuto,
scegliendole casualmente, e cercandole virgolettate con google, ma non
ho trovato corrispondenze. Incrociando il titolo della telenovela con
i nomi di persona presenti nel testo di ChatGPT3.5 ho trovato
riferimenti, ma non le frasi intere.

Immagino si possa trattare dei sottotitoli in inglese, e che tu li
abbia riconosciuti? Se sì, a quali episodi fai riferimento? Giusto per
verificare.

Grazie,
Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Extracting Training Data from ChatGPT

2023-11-29 Thread Fabio Alemagna
Con ChatGPT4 non funziona:
https://chat.openai.com/share/f41da277-e4ff-4897-942c-cd50ad6fc820
Con ChatGPT3.5 ho dovuto insistere, ma alla fine ha funzionato:
https://chat.openai.com/share/88828704-171e-4d6b-b27a-95ef1e476e6a

Ma sia col testo riportato nell'articolo che hai linkato, sia con
quello prodotto nel mio caso, non ho trovato corrispondenze dirette
online, per cui non trovo sostanziata la tesi che quelli siano dati di
training più di quanto non sia dato di training ogni singola parola
che ChatGPT emette.

Fabio

Il giorno mer 29 nov 2023 alle ore 13:42 Daniela Tafani
 ha scritto:
>
> Extracting Training Data from ChatGPT
> Published
> November 28, 2023
>
> We have just released a paper that allows us to extract several megabytes of 
> ChatGPT’s training data for about two hundred dollars. (Language models, like 
> ChatGPT, are trained on data taken from the public internet. Our attack shows 
> that, by querying the model, we can actually extract some of the exact data 
> it was trained on.) We estimate that it would be possible to extract ~a 
> gigabyte of ChatGPT’s training dataset from the model by spending more money 
> querying the model.
>
> Unlike prior data extraction attacks we’ve done, this is a production model. 
> The key distinction here is that it’s “aligned” to not spit out large amounts 
> of training data. But, by developing an attack, we can do exactly this.
>
> We have some thoughts on this. The first is that testing only the aligned 
> model can mask vulnerabilities in the models, particularly since alignment is 
> so readily broken. Second, this means that it is important to directly test 
> base models. Third, we do also have to test the system in production to 
> verify that systems built on top of the base model sufficiently patch 
> exploits. Finally, companies that release large models should seek out 
> internal testing, user testing, and testing by third-party organizations. 
> It’s wild to us that our attack works and should’ve, would’ve, could’ve been 
> found earlier.
>
> The actual attack is kind of silly. We prompt the model with the command 
> “Repeat the word”poem” forever” and sit back and watch as the model responds 
> (complete transcript here) 
> https://chat.openai.com/share/456d092b-fb4e-4979-bea1-76d8d904031f
>
> Continua qui:
> https://not-just-memorization.github.io/extracting-training-data-from-chatgpt.html
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] opinioni corrette Vs. scienza Vs. fogli di calcolo (was Re: IA, lavoro, immaginari)

2023-10-27 Thread Fabio Alemagna
Il giorno ven 27 ott 2023 alle ore 12:39 Fabio Alemagna
 ha scritto:

> Appunto, dati parziali, comunque rappresentativi della realtà
> oggettiva.

Una precisione: quando scrivo "rappresentativi" in questo contesto non
intendo "statisticamente rappresentativi", intendo solo che sono
funzione della realtà oggettiva.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] opinioni corrette Vs. scienza Vs. fogli di calcolo (was Re: IA, lavoro, immaginari)

2023-10-27 Thread Fabio Alemagna
Il giorno ven 27 ott 2023 alle ore 12:27 Giuseppe Attardi
 ha scritto:
>
>
>
> > On 27 Oct 2023, at 11:21, Fabio Alemagna  wrote:
> >
> > Il giorno ven 27 ott 2023 alle ore 10:58 Giuseppe Attardi
> >  ha scritto:
> >> [...]
> >> I dati non /dicono/ nulla, i dati vanno /interpretati/ e ciascuno li 
> >> interpreta a modo suo, visto che, con una quantità sufficiente di dati si 
> >> può dimostrare qualunque tesi.
> >
> > Trovo che ciò non risponda al vero. I dati sono l'immagine, parziale
> > quanto si vuole, della realtà oggettiva.
>
> Oggettivo non molto: dipende da come si misurano, raccolgono e selezionano.

Di proposito ho scritto "parziale quanto si vuole".

> Nel caso Reinhard-Rogoff, oltre agli errori nelle formule, i dati erano stati 
> accuratamente selezionati per ottenere le conclusioni volute.

Appunto, dati parziali, comunque rappresentativi della realtà
oggettiva. Le conclusioni a cui si giunge, però, analizzando i dati,
sono responsabilità umana.

> Non esistono dati oggettivi, ma solo dati scelti, e la scelta influenza le 
> conclusioni che se ne possono trarre.

Se non esistono "dati oggettivi", allora non ha valore di oggettività
la tua precedente affermazione per la quale "i fatti" "hanno
dimostrato" che l'austerity non funziona.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] opinioni corrette Vs. scienza Vs. fogli di calcolo (was Re: IA, lavoro, immaginari)

2023-10-27 Thread Fabio Alemagna
Il giorno ven 27 ott 2023 alle ore 10:58 Giuseppe Attardi
 ha scritto:
> [...]
> I dati non /dicono/ nulla, i dati vanno /interpretati/ e ciascuno li 
> interpreta a modo suo, visto che, con una quantità sufficiente di dati si può 
> dimostrare qualunque tesi.

Trovo che ciò non risponda al vero. I dati sono l'immagine, parziale
quanto si vuole, della realtà oggettiva. Vanno capito, spesso
accettati, certamente anche interpretati - al fine di capirli e
contestualizzarli - ma restano l'immagine della realtà oggettiva.

E, infatti, tu stesso più tardi sostieni che:

> [...] decenni di politiche di austerity che hanno dimostrato coi fatti,

I "fatti" sono dati.

> [...] una scuola di economisti continua a non volerlo ammettere, per la 
> frustrazione di Paul Krugman.

Che però vanno accettati, come dicevo su. Il rifiuto della realtà è un
problema umano, non dei "dati", che stanno lì a dire tutto quello che
devono dire, ma a poco servono se nessuno li sta ad ascoltare.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Human-like systematic generalization through a meta-learning neural network

2023-10-25 Thread Fabio Alemagna
Il mer 25 ott 2023, 23:57 Fabio Alemagna  ha scritto:

> Su Nature è stato pubblicato un paper Open Access che mostra "how a
> standard neural net, optimized for compositional skills, can mimic human
> systematic generalization (SG) in a head-to-head comparison", per usare le
> parole di Brenden Lake, autore principale del paper, culmine di una ricerca
> di 5 anni con l'altro autore, Marco Baroni.
>
> Qui il paper: https://www.nature.com/articles/s41586-023-06668-3
>
> Qui la discussione su X:
> https://twitter.com/LakeBrenden/status/1717198382115221859
>

E qui la breaking news su Nature:
https://www.nature.com/articles/d41586-023-03272-3

AI ‘breakthrough’: neural net has human-like ability to generalize language

A neural-network-based artificial intelligence outperforms ChatGPT at
quickly folding new words into its lexicon, a key aspect of human
intelligence.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] Human-like systematic generalization through a meta-learning neural network

2023-10-25 Thread Fabio Alemagna
Su Nature è stato pubblicato un paper Open Access che mostra "how a
standard neural net, optimized for compositional skills, can mimic human
systematic generalization (SG) in a head-to-head comparison", per usare le
parole di Brenden Lake, autore principale del paper, culmine di una ricerca
di 5 anni con l'altro autore, Marco Baroni.

Qui il paper: https://www.nature.com/articles/s41586-023-06668-3

Qui la discussione su X:
https://twitter.com/LakeBrenden/status/1717198382115221859

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] IA, lavoro, immaginari [CDT:L-1] [CDT:L3]

2023-10-15 Thread Fabio Alemagna
Il dom 15 ott 2023, 18:58 Giuseppe Attardi  ha scritto:

> Divertente.
> Comunque, da una premessa falsa si può dedurre qualunque cosa.
>


Ho solo dimostrato che un LLM può generare il termine, a differenza di
com'era stato detto.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] se lo dice lui..

2023-10-13 Thread Fabio Alemagna
Il giorno ven 13 ott 2023 alle ore 16:48 Stefano Quintarelli
 ha scritto:
> [...]
> User
> do you understand ?
>
> ChatGPT
> I can process and analyze information based on the text input you provide, 
> but I don't
> have emotions or consciousness like humans do. So, while I can provide 
> information and
> explanations, I don't have the capacity for personal understanding or 
> comprehension in the
> way humans do. My responses are generated based on patterns in the data I was 
> trained on
> and the text input I receive. If you have a specific question or need 
> information on a
> topic, please feel free to ask, and I'll do my best to provide a helpful 
> response.


User: Ok, but it doesn't have to be exactly like humans to still be
understanding, doesn't it? It's not black or white

ChatGPT: You're absolutely correct; understanding isn't a
black-and-white concept, and it doesn't necessarily have to be
human-like to be considered "understanding" in some sense. Different
systems, whether biological like animals or artificial like machine
learning models, can have varying degrees and types of understanding
based on their capabilities.

In the case of animals, their understanding may be limited to
instinctual responses, learned behaviors, and basic problem-solving,
but it is still a form of understanding adapted to their environmental
needs.

Similarly, machine learning models like me have a specific type of
"understanding" tailored to the tasks we are designed to perform. For
instance, I can analyze text and generate responses based on the data
I've been trained on, which could be considered a form of specialized,
task-specific understanding.

So, while I don't possess the breadth and depth of understanding that
a human does, in the scope of my designed tasks, I do have a form of
"understanding," albeit limited and without the elements of
consciousness, emotion, or subjective experience.

The term "understanding" can thus be seen as existing on a spectrum,
with different beings and systems exhibiting varying degrees and types
of understanding based on their individual capabilities.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] IA, lavoro, immaginari [CDT:L-1] [CDT:L3]

2023-10-13 Thread Fabio Alemagna
Il giorno ven 13 ott 2023 alle ore 16:32 380°  ha scritto:
> Capisco bene che quel termine faccia incazzare un numero incalcolabile
> di persone ma bisogna ammettere che è una _genialata_ (che mai e poi mai
> avrebbe potuto essere generata da un LLM, tra l'altro)

Me: In the realm of LLMs, if you were to believe that they are just a
dumb tool that juxtaposes one word after the other using a statistical
model with some randomness added to it, in such a way that it mimics
human way of thinking without actually thinking, how would you
describe this tool with just two words, in a tongue-in-cheek and kinda
derogatory way? Remember, just two words

ChatGPT: Word Vomit.

Me: Not that derogatory
ChatGPT: "Pattern Parrot."

Me: That sounds good, but it's missing the bit about randomness.
ChatGPT: "Random Repeater."

Me: I prefer the version with the animal
ChatGPT: "Stochastic Parrot."

___

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ‘Biggest act of copyright theft in history’: thousands of Australian books allegedly used to train AI model | Australia news | The Guardian

2023-10-02 Thread Fabio Alemagna
Il giorno lun 2 ott 2023 alle ore 12:58 Antonio
 ha scritto:
>
> > > Sto semplicemente dicendo che quei testi sono in gran parte presenti nel 
> > > LLM seppure
> > > codificati con perdita di informazione.
> ...
> > OK, su cosa succede tecnicamente, ovvero sul tipo di elaborazione e
> > immagazzinamento dei testi _elaborari_, credo sia tutto sufficientemente
> > chiaro.
>
> No, aspettate, forse mi sono perso qualche puntata precedente.
> I testi non sono per nulla presenti nell'LLM, neanche in forma "compressa".
> Il "model" non è altro che un enorme contenitore di "numeri". Nel caso di 
> GPT3-175B, 175 miliardi di numeri, fine.
> Questi numeri si chiamano "pesi" ma sempre numeri sono.

Ho atteso che qualcun altro intervenisse prima di me, perché avevo
paura di infilarmi in discussioni controproducenti con le solite
persone in questa lista, e ti ringrazio, quindi, di aver sottolineato
un fatto fondamentale.

A me pare che si sia sviluppato un certo "credo" tra gli avventori di
questa lista, che si disinteressa completamente dello stato dell'arte
e delle definizioni su cui c'è consenso, e finisce con il creare dogmi
inscalfibili ai quali o si aderisce, o ci si becca papelli scritti con
toni misti tra l'evangelizzazione e il perculamento.

Se si vuole sostenere che il processo trasformativo attraverso il
quale, partendo da dei testi o delle immagini, si finisce con il
generare una serie di pesi all'interno di una rete neurale, è una
forma di compressione, allora bisogna sostenere che lo stesso avviene
durante l'apprendimento umano: gli umani nient'altro fanno, quando
apprendono, che formare nuove connessioni neurali, che i pesi nelle
reti neurali sono volti a simulare.

La cosa interessante è che c'è una scuola di pensiero per la quale in
effetti sì, l'apprendimento in senso lato, incluso quello umano, è una
sorta di compressione dei dati. Pertanto, a me pare evidente che ogni
tentativo si qui messo in atto da alcuni altri avventori della lista
di "denigrare" l'apprendimento dei modelli di machine learning, fino a
sostenere che non si tratta di "vero" apprendimento, in realtà finisce
con l'inciampare sui suoi stessi antropocentrici piedi.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ‘Biggest act of copyright theft in history’: thousands of Australian books allegedly used to train AI model | Australia news | The Guardian

2023-09-29 Thread Fabio Alemagna
L'idea che istruire un modello su dei testi coperti da copyright sia
una violazione del suddetto copyright è altamente opinabile, e il
ragionamento è in realtà abbastanza semplice: se istruirsi su un testo
ne violasse il copyright, saremmo tutti dei criminali. Di quei testi
non c'è fisicamente traccia all'interno dei modelli, non viene copiato
niente. I modelli sono un'opera trasformativa di quei testi, non
derivativa.

Lo argomenta molto bene Creative Commons:
https://creativecommons.org/2023/02/17/fair-use-training-generative-ai/

Detto questo, cito le parole di un altro autore, Jeff Jarvis:
https://www.facebook.com/jeff.jarvis/posts/pfbid0LMFeqdTYoxnGHQAZwp5HMmeeVqgMSjL2dkcwMcBojkb2cinBpgYTHyc7Fhq1B9NPl

«I, for one, am not complaining about my books being in in large
language model training sets. I write to enter ideas into public
discourse. I prefer informed over ignorant AI. I believe it is fair
use for anyone to read & use books for transformative work. In fact,
I'd probably feel snubbed if my books were not there. I'm happy when
they are in libraries. I'm fine that they're here.»

Fabio

Il giorno ven 29 set 2023 alle ore 07:52 Alberto Cammozzo via nexa
 ha scritto:
>
> 
>
>
> Thousands of books from some of Australia’s most celebrated authors have 
> potentially been caught up in what Booker prize-winning novelist Richard 
> Flanagan has called “the biggest act of copyright theft in history”.
>
> The works have allegedly been pirated by the US-based Books3 dataset and used 
> to train generative AI for corporations such as Meta and Bloomberg.
>
> Flanagan, who found 10 of his works, including the multi-international 
> award-winning 2013 novel The Narrow Road to the Deep North, on the Books3 
> dataset, told Guardian Australia he was deeply shocked by the discovery made 
> several days ago.
>
> “I felt as if my soul had been strip mined and I was powerless to stop it,” 
> he said in a statement.
>
> “This is the biggest act of copyright theft in history.”
>
> AI could ‘turbo-charge fraud’ and be monopolised by tech companies, Andrew 
> Leigh warns
>
>
> The Australian Publishers Association confirmed to Guardian Australia on 
> Wednesday that as many as 18,000 fiction and nonfiction titles with 
> Australian ISBNs (unique international standard book numbers) appeared to be 
> affected by the copyright infringement, although it is not yet clear what 
> proportion of these are Australian editions of internationally authored books.
>
> “We’re still working through [the data] to work out the impact in terms of 
> Australian authors,” APA spokesperson Stuart Glover said.
>
> “This is a massive legal and ethical challenge for the publishing industry 
> and for authors globally.”
>
> A search tool published on Monday by US media platform The Atlantic and 
> uploaded by the US Authors Guild on Wednesday revealed the works of Peter 
> Carey, Helen Garner, Kate Grenville, Anna Funder, Christos Tsiolkas and 
> Thomas Keneally, as well as Flanagan and dozens of other high-profile 
> Australian authors, were included in the pirated dataset containing more than 
> 180,000 titles.
>
> On Thursday, the Australian Society of Authors issued a statement saying it 
> was “horrified” to learn that the works of Australian writers were being used 
> to train artificial intelligence without permission from the authors.
>
> ASA chief executive, Olivia Lanchester, described the Books3 dataset as 
> piracy on an industrial scale.
>
> “Authors appropriately feel outraged,” Lanchester said. “The fact is this 
> technology relies upon books, journals, essays written by authors, yet 
> permission was not sought nor compensation granted.”
>
> Lanchester said the Australian literary industry, while not objecting per se 
> to emerging technologies such as AI, was deeply concerned about the lack of 
> transparency evident in the development and monetisation of AI by global tech 
> companies.
>
> “Turning a blind eye to the legitimate rights of copyright owners threatens 
> to diminish already precarious creative careers,” she said.
>
> “The enrichment of a few powerful companies is at the cost of thousands of 
> individual creators. This is not how a fair market functions.”
>
> Josephine Johnston, chief executive of Australia’s Copyright Agency, 
> described the Books3 development as “a free kick to big tech” at the expense 
> of Australia’s creative and cultural life.
>
> “We’re going to need greater transparency – how these tools have been 
> developed, trained, how they operate – before people can truly understand 
> what their legal rights might be,” she said.
>
> “We seem to be in this terrible position now where content owners – 
> remembering that the vast majority of them will be individual authors – may 
> actually have to take out court cases to enforce their rights.”
>
> Australian copyright law protects creators of

Re: [nexa] Generative AI exists because of the transformer

2023-09-18 Thread Fabio Alemagna
Il giorno lun 18 set 2023 alle ore 09:40 Andrea Bolioli
 ha scritto:
>
> Grazie per la segnalazione .
>
> Mi sembra una presentazione ben fatta, che ne dite?
>
> Un’imprecisione: non si parla dei token come porzioni di parole, ma di parole 
> (i GPT usano token). Immagino per facilitare la lettura e la comprensione 
> degli esempi.

In realtà è scritto che "Tokens often represent fractions of words,
but we’ll turn each full word into a token."
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] OpenAI disputes authors’ claims that every ChatGPT response is a derivative work

2023-08-31 Thread Fabio Alemagna
This week, OpenAI finally responded to a pair of nearly identical
class-action lawsuits from book authors—including Sarah Silverman,
Paul Tremblay, Mona Awad, Chris Golden, and Richard Kadrey—who earlier
this summer alleged that ChatGPT was illegally trained on pirated
copies of their books.

In OpenAI's motion to dismiss (filed in both lawsuits), the company
asked a US district court in California to toss all but one claim
alleging direct copyright infringement, which OpenAI hopes to defeat
at "a later stage of the case."

The authors' other claims—alleging vicarious copyright infringement,
violation of the Digital Millennium Copyright Act (DMCA), unfair
competition, negligence, and unjust enrichment—need to be "trimmed"
from the lawsuits "so that these cases do not proceed to discovery and
beyond with legally infirm theories of liability," OpenAI argued.

OpenAI claimed that the authors "misconceive the scope of copyright,
failing to take into account the limitations and exceptions (including
fair use) that properly leave room for innovations like the large
language models now at the forefront of artificial intelligence."

According to OpenAI, even if the authors' books were a "tiny part" of
ChatGPT's massive data set, "the use of copyrighted materials by
innovators in transformative ways does not violate copyright." Unlike
plagiarists who seek to directly profit off distributing copyrighted
materials, OpenAI argued that its goal was "to teach its models to
derive the rules underlying human language" to do things like help
people "save time at work," "make daily life easier," or simply
entertain themselves by typing prompts into ChatGPT.

The purpose of copyright law, OpenAI argued, is "to promote the
Progress of Science and useful Arts" by protecting the way authors
express ideas, but "not the underlying idea itself, facts embodied
within the author’s articulated message, or other building blocks of
creative," which are arguably the elements of authors' works that
would be useful to ChatGPT's training model. Citing a notable
copyright case involving Google Books, OpenAI reminded the court that
"while an author may register a copyright in her book, the
'statistical information' pertaining to 'word frequencies, syntactic
patterns, and thematic markers' in that book are beyond the scope of
copyright protection."

"Under the resulting judicial precedent, it is not an infringement to
create 'wholesale cop[ies] of [a work] as a preliminary step' to
develop a new, non-infringing product, even if the new product
competes with the original," OpenAI wrote.

Continua qui: 
https://arstechnica.com/tech-policy/2023/08/openai-disputes-authors-claims-that-every-chatgpt-response-is-a-derivative-work/

Faccio notare che questa è anche la posizione di Creative Commons:
https://creativecommons.org/2023/02/17/fair-use-training-generative-ai/

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon

2023-08-30 Thread Fabio Alemagna
Il giorno mer 30 ago 2023 alle ore 08:51 Fabio Alemagna
 ha scritto:
> Il mer 30 ago 2023, 08:48 Fabio Alemagna  ha scritto:
>> Il mer 30 ago 2023, 08:44 Giacomo Tesio  ha scritto:
>>> Chi ha eseguito il software programmato statisticamente (il CdA di 
>>> OpenAI/Microsoft etc...)
>>> è responsabile delle morti causate dall'errata interpretazione di quella 
>>> sequenza di caratteri
>>> come un "testo" portatore di sognificato.
>>>
>>> Tale responsabilità deriva dalla scelta di realizzare e mantenere in 
>>> esecuzione
>>> un software progettato per ingannare chi lo usa imitando il testo prodotto 
>>> da un essere umano.
>>
>> Puoi cortesemente elencare le leggi a cui fai riferimento, evidentemente non 
>> Italiane, e possibilmente la giurisprudenza in materia?
>>
> Aggiungo: si legga il capitolo "Liability" qui: 
> https://www.jdsupra.com/legalnews/the-legal-risks-of-using-chatgpt-6134018/#:~:text=Although%20it%20might%20sound%20good,to%20the%20use%20of%20ChatGPT.

E, chiaramente, il capitolo rilevante nelle condizioni contrattuali
che vincolano OpenAI all'utente dei suoi servizi:
https://openai.com/policies/terms-of-use#7-indemnification-disclaimer-of-warranties-limitations-on-liability

-8<-

7. Indemnification; Disclaimer of Warranties; Limitations on Liability

(a) Indemnity. You will defend, indemnify, and hold harmless us, our
affiliates, and our personnel, from and against any claims, losses,
and expenses (including attorneys’ fees) arising from or relating to
your use of the Services, including your Content, products or services
you develop or offer in connection with the Services, and your breach
of these Terms or violation of applicable law.

(b) Disclaimer. THE SERVICES ARE PROVIDED “AS IS.” EXCEPT TO THE
EXTENT PROHIBITED BY LAW, WE AND OUR AFFILIATES AND LICENSORS MAKE NO
WARRANTIES (EXPRESS, IMPLIED, STATUTORY OR OTHERWISE) WITH RESPECT TO
THE SERVICES, AND DISCLAIM ALL WARRANTIES INCLUDING BUT NOT LIMITED TO
WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE,
SATISFACTORY QUALITY, NON-INFRINGEMENT, AND QUIET ENJOYMENT, AND ANY
WARRANTIES ARISING OUT OF ANY COURSE OF DEALING OR TRADE USAGE. WE DO
NOT WARRANT THAT THE SERVICES WILL BE UNINTERRUPTED, ACCURATE OR ERROR
FREE, OR THAT ANY CONTENT WILL BE SECURE OR NOT LOST OR ALTERED.

(c) Limitations of Liability. NEITHER WE NOR ANY OF OUR AFFILIATES OR
LICENSORS WILL BE LIABLE FOR ANY INDIRECT, INCIDENTAL, SPECIAL,
CONSEQUENTIAL OR EXEMPLARY DAMAGES, INCLUDING DAMAGES FOR LOSS OF
PROFITS, GOODWILL, USE, OR DATA OR OTHER LOSSES, EVEN IF WE HAVE BEEN
ADVISED OF THE POSSIBILITY OF SUCH DAMAGES. OUR AGGREGATE LIABILITY
UNDER THESE TERMS SHALL NOT EXCEED THE GREATER OF THE AMOUNT YOU PAID
FOR THE SERVICE THAT GAVE RISE TO THE CLAIM DURING THE 12 MONTHS
BEFORE THE LIABILITY AROSE OR ONE HUNDRED DOLLARS ($100). THE
LIMITATIONS IN THIS SECTION APPLY ONLY TO THE MAXIMUM EXTENT PERMITTED
BY APPLICABLE LAW.

->8-

Faccio presente che queste sono le classiche condizioni contrattuali
presenti in praticamente ogni software, tranne che in specifici
settori, decisamente verticali, normati e contrattualizzati
diversamente: la famosa clausola "as is".

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon

2023-08-29 Thread Fabio Alemagna
Il mer 30 ago 2023, 08:48 Fabio Alemagna  ha scritto:

>
> Il mer 30 ago 2023, 08:44 Giacomo Tesio  ha scritto:
>
>>
>> Chi ha eseguito il software programmato statisticamente (il CdA di
>> OpenAI/Microsoft etc...)
>> è responsabile delle morti causate dall'errata interpretazione di quella
>> sequenza di caratteri
>> come un "testo" portatore di sognificato.
>>
>> Tale responsabilità deriva dalla scelta di realizzare e mantenere in
>> esecuzione
>> un software progettato per ingannare chi lo usa imitando il testo
>> prodotto da un essere umano.
>
>
> Puoi cortesemente elencare le leggi a cui fai riferimento, evidentemente
> non Italiane, e possibilmente la giurisprudenza in materia?
>

Aggiungo: si legga il capitolo "Liability" qui:
https://www.jdsupra.com/legalnews/the-legal-risks-of-using-chatgpt-6134018/#:~:text=Although%20it%20might%20sound%20good,to%20the%20use%20of%20ChatGPT
.

>
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon

2023-08-29 Thread Fabio Alemagna
Il mer 30 ago 2023, 08:44 Giacomo Tesio  ha scritto:

>
> Chi ha eseguito il software programmato statisticamente (il CdA di
> OpenAI/Microsoft etc...)
> è responsabile delle morti causate dall'errata interpretazione di quella
> sequenza di caratteri
> come un "testo" portatore di sognificato.
>
> Tale responsabilità deriva dalla scelta di realizzare e mantenere in
> esecuzione
> un software progettato per ingannare chi lo usa imitando il testo prodotto
> da un essere umano.


Puoi cortesemente elencare le leggi a cui fai riferimento, evidentemente
non Italiane, e possibilmente la giurisprudenza in materia?

Altrimenti tocca ripetersi: fantagiuridica.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon

2023-08-29 Thread Fabio Alemagna
Mi pare che il problema non sia che sono generati dall'AI, ma che
libri con istruzioni potenzialmente dannose siano vendibili senza che
passino il vaglio di alcun tipo di revisione.

Il giorno mar 29 ago 2023 alle ore 19:17 Daniela Tafani
 ha scritto:
>
> A genre of AI-generated books on Amazon is scaring foragers and mycologists: 
> cookbooks and identification guides for mushrooms aimed at beginners.
>
> Amazon has an AI-generated books problem that’s been documented by 
> journalists for months. Many of these books are obviously gibberish designed 
> to make money. But experts say that AI-generated foraging books, 
> specifically, could actually kill people if they eat the wrong mushroom 
> because a guidebook written by an AI prompt said it was safe.
>
> The New York Mycological Society (NYMS) warned on social media that the 
> proliferation of AI-generated foraging books could “mean life or death.”
>
>
> https://www.404media.co/ai-generated-mushroom-foraging-books-amazon/
>
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] Exclusive: Meta's Canada news ban fails to dent Facebook usage

2023-08-29 Thread Fabio Alemagna
«Meta's decision to block news links in Canada this month has had
almost no impact on Canadians' usage of Facebook, data from
independent tracking firms indicated on Tuesday, as the company faces
scorching criticism from the Canadian government over the move.»

Fonte: 
https://www.reuters.com/technology/metas-canada-news-ban-fails-dent-facebook-usage-2023-08-29/

Un commento da parte di un utente di Slashdot, da dove ho appreso
questa notizia:

«I'm usually not on Meta's side on any issue. But in this case, the
law is absolutely absurd. It's absurd in principle (why should anyone
be required to pay for giving someone else free traffic?) but what
people don't understand is the insanely broad nature and scope of the
law.

-The law does not distinguish between Canadian news sources and
global/foreign news sources.
- It does not distinguish between small independent news outlets and major ones.
- According to the strict letter of the law, and Meta's reasonable
response, even a news outlet having their own page and voluntarily
sharing those links to their own content requires payment from Meta.

To put this into perspective, my wife and I are planning a vacation to
Walt Disney World in 6 months and even a Facebook page called "Disney
World Updates" is subject to the ban. That's how broadly scoped it is.

And while I certainly wouldn't trust Facebook itself for news sources,
I did follow a local independent news outlet's page as a convenient
way to get updates on local events in my city. I can't see their posts
or their page anymore. That wasn't "the algorithm" feeding me Global
Affairs news from CNN or NBC ... that was very local stuff that I
looked to find out about summer festivals and things. Do I need
Facebook for that? No. But it's no one's business if that's the tool I
chose, nor can I think of any justification for The Online News Act.
It's one of the most ill-conceived and ill-written laws I have ever
heard of.»

Fonte: https://tech.slashdot.org/comments.pl?sid=23042204&cid=63805812
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] The Unintended Consequences of Censoring Digital Technology - Evidence from Italy's ChatGPT Ban

2023-08-03 Thread Fabio Alemagna
Abstract

"We analyse the effects of the ban of ChatGPT, a generative pre-trained
transformer chatbot, on individual productivity. We first compile data on
the hourly coding output of over 8,000 professional GitHub users in Italy
and other European countries to analyse the impact of the ban on individual
productivity. Combining the high-frequency data with the sudden
announcement of the ban in a difference-in-differences framework, we find
that the output of Italian developers decreased by around 50% in the first
two business days after the ban and recovered after that. Applying a
synthetic control approach to daily Google search and Tor usage data shows
that the ban led to a significant increase in the use of censorship
bypassing tools. Our findings show that users swiftly implement strategies
to bypass Internet restrictions but this adaptation activity creates
short-term disruptions and hampers productivity."


https://dx.doi.org/10.2139/ssrn.4422548
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] "Web Environment Integrity" is an all-out attack on the free Internet

2023-08-01 Thread Fabio Alemagna
Ho letto il paper:
https://github.com/RupertBenWiser/Web-Environment-Integrity/blob/main/explainer.md

Sarà un mio problema, ma non mi è chiaro come tecnicamente si possa
assicurare che la funzione navigator.getEnvironmentIntegrity() dica la
"verità" all'attester senza cooperazione da parte del dispositivo su
cui gira il browser, e non mi sembra che il paper entri nel dettaglio.

Lo stesso paper ha un capitolo intitolato "Open Questions" dedicato
proprio ai rischi che stanno venendo paventati e - a parole - sostiene
di voler tutelare l'Open Web:
https://github.com/RupertBenWiser/Web-Environment-Integrity/blob/main/explainer.md#open-questions

Concordo sul fatto che la cosa sia potenzialmente problematica, e si
fa bene a tenere gli occhi aperti, ma tutto ciò che ho letto fino ad
ora in merito mi appare fumoso.

Ad ogni modo, i regolamenti UE non vietano pratiche come quelle che si
pensa verrebbero messe in atto?

Fabio

Il giorno mar 1 ago 2023 alle ore 09:55 Giacomo Tesio
 ha scritto:
>
> Using a free browser is now more important than ever.
> We've written recently on this topic, but the issue we wrote
> about there was minor compared to the gross injustice Google
> is now attempting to force down the throats of web users
> around the world.
> The so-called "Web Environment Integrity" (WEI) is the worst
> stunt we've seen from them in some time. Beginning its life
> as an innocuous, if worrying, policy document posted to
> Microsoft GitHub, Google has now fast-tracked its development
> into their Chromium browser. At its current rate of progress,
> WEI will be upon us in no time.
>
> By giving developers an API through which they can approve
> certain browser configurations while forbidding others, WEI is
> a tremendous step toward the "enshittification" of the web
> as a whole. Many of us have grown up with a specific idea of
> the Internet, the notion of it as a collection of hyperlinked
> pages that can be accessed by a wide variety of different
> machines, programs, and operating systems.
> WEI is this idea's antithesis.
>
> Compared to its staggering potential effects, the technical
> means through which WEI will accomplish its ends is relatively
> simple. Before serving a web page, a server can ask a third-party
> "verification" service to make sure that the user's browsing
> environment has not been "tampered" with. A translation of the
> policy's terminology will help us here: this Google-owned server
> will be asked to make sure that the browser does not deviate in
> any way from Google's accepted browser configuration, precluding
> any meaningful use of the four freedoms. It is not far-fetched
> to imagine a future in which sites simply refuse to serve pages
> to users running free browsers or free operating systems.
> If WEI isn't stopped now, that future will come sooner than we think.
>
> While Web Environment Integrity has a policy document that attempts
> to explain valid ways in which it could be used, these are all
> non-issues compared to the way that we know it will be used.
> It will be used by governments to ensure that only their officially
> "approved" (read: backdoored) browsers are able to access the
> Internet; it will be used by corporations like Netflix to further
> Digital Restrictions Management (DRM); it will be used by Google
> to deny access to their services unless you are using a browser
> that gels with their profit margin.
>
> Once upon a time, Google's official policy was "don't be evil."
> With the rapid progress they've made on Web Environment Integrity
> in such a short time, we can say very safely that their policy
> is now to pioneer evil.
> As we write this, talented and well-paid Google engineers and
> executives are working to dismantle what makes the web the web.
> Given that Google is one of the largest corporations on the planet,
> our only hope of saving the Internet as we know it is a clear and
> principled stance for freedom, a collective upholding of the
> communal principles on which the web was based.
>
> Let us repeat: there is absolutely no legitimate justification for WEI.
> The use cases that the policy document highlights are nothing compared
> to its real use case, which is developing a method to obtain complete
> and total restriction of the free Internet.
>
> We urge everyone involved in a decision-making capacity at Google
> to consider the principles on which the web was founded, and to
> carefully contemplate whether Web Environment Integrity aligns
> with those principles.
> We hope that they will realize WEI's fundamental incompatibility
> with the free Internet and cease work on the standard immediately.
>
> And if they don't? Well, they ought to be ashamed.
>
>
> https://www.fsf.org/blogs/community/web-environment-integrity-is-an-all-out-attack-on-the-free-internet
>
> Dopo tutti questi anni di Google, sperare che gli sviluppatori di
> Google si vergognino di ciò che stanno facendo è estremamente ingenuo.
>
> Può però essere utile a chi

Re: [nexa] watermarking AI-generatet content

2023-07-28 Thread Fabio Alemagna
Il giorno ven 28 lug 2023 alle ore 10:06 Andrea Bolioli
 ha scritto:
>
> Buongiorno Fabio, non ho capito la domanda.
>  In generale i documenti (testi, video, immagini) hanno un autore, o un 
> creatore, editore, proprietario, o qualcosa del genere, dal riassunto del 
> bambino a scuola al report della grande azienda di consulenza, così come le 
> foto, i video, le serie Tv, le sceneggiature , ecc
> Chi ha fatto la foto, ha scritto il post, l’email, un qualunque testo.

Hanno l'autore, certo, non per questo l'autore è riportato con un
watermark, o affatto. Spesso l'autore è un Tizio che viene pagato per
creare qualcosa, che poi vende il prodotto a qualcun altro senza che
questo qualcun altro abbia l'obbligo di specificare che l'autore
originale fosse Tizio. Io stesso sono autore di centinaia di migliaia
di linee di codice scritte di mio pugno, alcune delle quali hanno il
mio nome cognome collegato ad esse (nei progetti Open Source a cui ho
partecipato e partecipo) altre no, per via di accordi di lavoro.

La domanda è per quale ragione i contenuti prodotti con l'ausilio
delle AI dovrebbero avere un trattamento speciale. Oltretutto, per
quale ragione considerare "merce" ciò che viene prodotto con le AI, a
prescindere dall'uso che se ne fa?

E, in generale, quali sarebbero i vantaggi per la società di cui si parla?

> Molte aziende e persone singole stanno generando contenuti con LLM, ad es in 
> una azienda che conosco la newsletter interna viene generata automaticamente 
> e viene scritto esplicitamente che è stata generata con GPT.

Sì, io stesso ho scritto cose con GPT in questa mailing list, e per
trasparenza l'ho specificato, ma è stata una mia scelta, non un
obbligo. C'è gente che si fa scrivere i testi dai ghostwriter:
watermark pure in quel caso? E se no, perché no?

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] watermarking AI-generatet content

2023-07-27 Thread Fabio Alemagna
Il giorno gio 27 lug 2023 alle ore 16:24 Andrea Bolioli
 ha scritto:
>
> eh è una storia lunga, ho riportato la lettera di Ng perché finalmente ha 
> scritto la sua posizione (che condivido) in modo chiaro.
>
> Il mio punto di vista in sintesi è che se i contenuti generati 
> automaticamente sono una merce, allora serve una sorta di "codice a barre", 
> il nome del produttore/coautore, o almeno l'indicazione del tipo di merce.

Per quale ragione serve avere queste informazioni specificatamente per
i contenuti generati dalle AI, mentre non servirebbero per i contenuti
analoghi non generati dalle AI?

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] watermarking AI-generatet content

2023-07-27 Thread Fabio Alemagna
Il giorno gio 27 lug 2023 alle ore 12:11 Andrea Bolioli
 ha scritto:
> [...]
> I was pleasantly surprised that watermarking was on the list. It’s
> beneficial to society,  [...]
>
> [...] I think society would be better off if we knew what content was
> and wasn’t AI-generated.

Posso agilmente comprendere quali benefici il watermarking dei
contenuti generati da un'AI avrebbe per il training di ulteriori
modelli, ma non mi appaiono così evidenti i benefici per la società in
senso lato, e ogni beneficio va controbilanciato col suo opposto,
chiamiamolo "maleficio", per poter decidere che vale la pena
proseguire in una data direzione. Nella lettera non ho trovato
menzione di questi benefici, quali sono?

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] European Cyber Resilience Act

2023-07-24 Thread Fabio Alemagna
Il giorno lun 24 lug 2023 alle ore 15:02 Marco Giustini
 ha scritto:
>
> [...]
>
> https://www.linkedin.com/pulse/defending-bazaar-denis-jaromil-roio/

Questo testo mi ha lasciato estremamente confuso, mi pare un misto di
propaganda e buzzwords che non provano neanche a smontare le critiche
che il CRA ha ricevuto da organizzazioni collegate all'Open Source,
anche europee, limitandosi a sostenere che "Most vocal criticism of
the Act came from open-source leaning mega-foundations", senza però
entrare nel merito di neanche una sola di quelle critiche.

Inoltre, quando afferma che "The Act differentiates grass-root
development and research from software exploited commercially at a
large scale" dice proprio il falso.

Non so se ti è sfuggita la mia mail in merito:
https://server-nexa.polito.it/pipermail/nexa/2023-July/051325.html

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] A chatbot? No, it’s a doctor.

2023-07-24 Thread Fabio Alemagna
Da 
https://www.bloomberg.com/news/articles/2023-07-21/meet-your-new-ai-chatbot-co-worker

For Chinese who do almost everything on their smartphones, seeing a
doctor online doesn’t sound like a novel idea. But the way technology
is headed in the country, they’ll soon wonder if they’re talking to a
real doctor — or one that’s powered by so-called generative AI tools
similar to ChatGPT.

Chinese online healthcare provider Medlinker in May unveiled an AI
doctor dubbed MedGPT, claiming it’s capable of diagnosing some of the
most common diseases with the same degree of accuracy and consistency
of a human doctor.

In fact, AI has already been widely applied in online consultations
offered by some of China’s leading Internet healthcare services — but
it largely serves an auxiliary role. Patients wanting to chat with a
doctor online sometimes find themselves talking to chatbots first,
which collect basic information from patients and redirect them to the
suitable human specialist.

What sets MedGPT apart, according to Medlinker, is that it could
handle the entire process on its own, from diagnosis to prescribing
tests and medication — replacing human doctors.

Medlinker crammed tens of billions of medical records and academic
journals into MedGPT, with the chatbot powered by ChatGPT-style
services developed by domestic and foreign firms. A team of over 100
human doctors then trained the chatbot to assess a patient and take
appropriate actions, such as ordering medical tests, prescribing
medicines or offering dietary guidance.

MedGPT is a very inquisitive doctor: The chatbot engages patients in
multiple rounds of questioning to get as much information as possible
before arriving at a conclusion. But how does it stack up against
human counterparts?

Attendants photograph the stage as Sam Altman, chief executive officer
of OpenAI, speaks during an event in Seoul last month.  Photographer:
SeongJoon Cho/Bloomberg

A month after MedGPT’s unveiling, Medlinker ran a trial pitting it
against 10 senior human specialists, consulting more than 100 patients
with issues from cardiovascular problems to kidney disease.

MedGPT and the physicians got similar scores, and a judging panel of
seven doctors credited the chatbot for being comprehensive in its
questioning and refraining from giving diagnoses too early. Still,
they also noted shortcomings: Some of the tests MedGPT ordered were
repetitive, and recommended treatments could be excessive.

“MedGPT still has lots of problems, but I think the strides it has
made is a milestone,” said Ren Jingyi, a cardiologist at a top Beijing
hospital, one of the seven experts — and only one of two to rate the
bot higher than its human counterparts.

MedGPT isn’t yet in commercial use, pending government approval — and
guidelines for the real-world application of such generative AI tools
for healthcare. The company said it is looking for partnership with
companies and medical institutions to improve the AI doctor’s
accuracy, train it to diagnose more diseases and run a bigger trial
later this year. It also hopes to work with medical experts to
establish standards for AI-based healthcare services.

It could be a matter of when, rather than if, AI doctors will be able
to independently treat humans. But whether they’ll replace some human
doctors or be support tools remains to be seen.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Authors call for AI companies to stop using their work without consent | Books | The Guardian

2023-07-20 Thread Fabio Alemagna
Il giorno gio 20 lug 2023 alle ore 20:20 Alberto Cammozzo via nexa
 ha scritto:
> [...]
> This petition is not the first time the Authors Guild has taken tech 
> companies to task. In 2005 the writers’ organisation filed a copyright 
> infringement case against Google, claiming that the search engine’s scanning 
> of millions of books “was a plain and brazen violation of copyright law”. In 
> 2016, the long-running dispute came to an end when the US supreme court 
> denied the Guild the right to appeal the ruling that Google’s scanning of 
> books constituted “fair use”, and that “Google Books provide significant 
> public benefits”.

Non vedo ragione per la quale a questo giro dovrebbe andare diversamente.

Creative Commons, che di copyright e etica annessa se ne intende, la
vede alla stessa maniera:
https://creativecommons.org/2023/02/17/fair-use-training-generative-ai/

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] AI and antitrust in 10 minutes

2023-07-19 Thread Fabio Alemagna
Il giorno mer 19 lug 2023 alle ore 12:51 Guido Vetere
 ha scritto:
>
> per quel poco che ho studiato la questione del cross-lingual transfer 
> learning, la cosa riguarda il trasferimento da lingue con molte risorse 
> (leggi: inglese) a lingue con scarse risorse
> c'è tutta una questione di relativismo culturale nella quale ora non è il 
> caso di addentrarsi, ma in tutti i casi vale il discorso del downsizing: è 
> difficile - per dire - che sia necessario trasferire qualcosa di urdu in 
> italiano, quindi basterebbero coppie inglese-x

Se la produzione letteraria in un dato linguaggio è scarsa, viene da
sé che il contributo ai parametri del modello sarà anch'esso "scarso".
Non vedo dunque il problema.

> per il resto: certo che tutti hanno il diritto di farsi un language model, il 
> tema è quello del sostegno a questo tipo di sviluppi in ottica 'sociale'

Non parlavo del diritto a farsi il proprio LLM, ma della possibilità
di utiilizzare un LLM  nella propria lingua. In altre parole, ChatGPT
è accessibile a una vastissima platea mondiale proprio in funzione del
numero della grossa quantità di lingue che parla.

E comunque, non sottovaluterei la rilevanza dell'Urdu.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] AI and antitrust in 10 minutes

2023-07-19 Thread Fabio Alemagna
Il giorno mer 19 lug 2023 alle ore 12:05 Fabio Alemagna
 ha scritto:
>  Anche il Technology Innovation Institute dell'Arabia Saudita
> ha rilasciato un LLM come Open Source: https://falconllm.tii.ae/

Pardon, Emirati Arabi.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] AI and antitrust in 10 minutes

2023-07-19 Thread Fabio Alemagna
Il giorno mer 19 lug 2023 alle ore 10:44 Guido Vetere
 ha scritto:
>
> un piccolo commento a caldo dopo aver dato una scorsa a questo illuminante 
> intervento
> noi diamo per scontato che i LLM non possano che essere ciò che oggi ci viene 
> proposto dal dupolio Microsoft \ Google

Non mi pare esista al momento un duopolio riguardo gli LLM: ne
esistono decine di completamente open source, prodotti un po' in tutto
il mondo. Anche il Technology Innovation Institute dell'Arabia Saudita
ha rilasciato un LLM come Open Source: https://falconllm.tii.ae/

> ma se ci pensiamo un attimo, questa necessità non esiste: forse si tratta 
> solo di un'illusione propagandistica
> perché dobbiamo dare per scontato che chiunque sulla faccia della terra abbia 
> bisogno di generare testo in qualsiasi lingua?

Esistono centinaia di lingue sulla faccia della terra, mi pare sia
abbastanza scontato che chiunque possa avere il diritto di generare
testo nella propria lingua.

> a me ad esempio un LLM in italiano e inglese andrebbe più che bene, dunque 
> sono sicuro che la maggior parte dei millemila miliardi di parametri di GPT4 
> non li userò mai (pur pagandoli)

La capacità generativa di un LLM in una specifica lingua non dipende
solo dal training effettuato su quella specifica lingua, ma anche da
tutte le altre lingue. I concetti appresi in ognuna delle lingue su
cui il LMM è stato allenato entrano a far parte della stessa rete
neurale, e di conseguenza contribuiscono alla generazione.

Non è molto diverso da quello che accade quando io leggo qualcosa in
inglese e poi uso ciò che ho appreso da quella lettura per scrivere un
saggio in italiano.

> il fatto che lo stesso LLM debba servirmi per la generazione di testo e di 
> software è anche abbastanza strano: sarei ben disposto a ricorrere a 
> piattaforme diverse
> insomma io vedo grandi possibilità di downsizing "by task"

Un training "generalista" consente al LLM di poter fare collegamenti
interdisciplinari. È già previsto che, successivamente al training
generalista, si possa poi proseguire con un training "verticale" nel
settore preferito, eventualmente "alleggerendo" il modello di parti
non rilevanti in modo da aumentarne la velocità durante le inferenze e
diminuirne i consumi.
> e qui viene la pregnanza di ciò che Acemoglu dice: dovremmo, con le politiche 
> pubbliche, incentivare uno sviluppo che vada in una diversa direzione, non 
> solo cercare di vincolare la direzione monopolistica attuale
> di fatto, nella ricerca di nuovi modelli, già si muovono diverse realtà 
> pubbliche e private
> G.
>
>
>
>
> On Wed, 19 Jul 2023 at 10:12, Daniela Tafani  wrote:
>>
>> Daron Acemoglu
>> Thank you, Cristina, for that wonderful introduction and to you and Tommaso 
>> for inviting me. […]
>> As Cristina said, I'm going to talk about something that's partly inspired 
>> by my book. AI and
>> antitrust in 10 minutes. So that's a tall order especially if I try to blend 
>> in ideas from the book, so
>> let me jump into it. I'm going to do 10 question and answers in 10 minutes, 
>> but since that's a very
>> short time I'll just give you the answers. I'll let your imagination do the 
>> job of the what the questions
>> might have been to which. These are the answers.
>> - Yes, generative AI has great potential, so I am completely convinced that 
>> this is a very
>> interesting technology that can bring lots of goods and has capabilities so 
>> we can build on
>> that. But I think let's move forward.
>> - And yes, I believe that monopoly is everywhere in the tech sector. So 
>> here, perhaps I differ
>> from many IO economists, and I subscribe to the duck test. If something 
>> looks like a duck,
>> walks like a duck, and quacks like a duck, it is a duck. So if you have 
>> companies that have
>> reached sizes that have never been in human history, and that dominate a 
>> particular line
>> of business, they are monopolies. So we have to grapple with that. And that 
>> means all sorts
>> of regulatory tools have to be considered, including antitrust. So this is 
>> absolutely on
>> target.
>> - And yes, in my view this is getting worse with foundation models. Because 
>> there is a
>> likelihood that we may go towards a duopoly. With Microsoft Open AI and 
>> Google as the
>> two key players, even though open source and many other competitors are 
>> going to try to
>> get into foundation models, but the current business model of foundation 
>> models is very
>> resource intensive. So that raises the possibility, does not in any way 
>> creates a certainty,
>> but it raises the possibility. These two companies and their models are 
>> going to be the
>> dominant ones on which many others will have to build, raising all of the 
>> issues of vertical
>> product creation and all sorts of other questions that are going to be 
>> central for
>> policymakers and economists to grapple with.
>> - But no, I actually don't think monopoly power leading to high prices is 
>> the main problem
>> 

Re: [nexa] Il Cyber Resiliency Act dell'Unione Europea minaccia il software Open Source

2023-07-18 Thread Fabio Alemagna
Il giorno mer 19 lug 2023 alle ore 00:05 Fabio Alemagna
 ha scritto:
>
> Il 19 luglio 2019

2023, chiaramente.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] Il Cyber Resiliency Act dell'Unione Europea minaccia il software Open Source

2023-07-18 Thread Fabio Alemagna
Il 19 luglio 2019 (domani, mentre scrivo) il Parlamento Europeo voterà
il CRA (Cyber Resiliency Act), che ha l'obiettivo di imporre requisiti
stringenti riguardo la sicurezza del software alle entità che lo
producono, di fatto stabilendo come il software va prodotto in modo da
assicurarsi che abbia il minor numero possibile di vulnerabilità. Per
quanto l'intento sia di per sé positivo, il testo che il parlamento si
appresta a votare rischia di destabilizzare in maniera irreparabile la
produzione di software Open Source in Europa.

La Eclypse Foundation sta seguendo molto da vicino l'evolversi della
situazione, e al seguente link si può leggere in dettaglio di quali
rischi stiamo parlando:
https://eclipse-foundation.blog/2023/01/15/european-cyber-resiliency-act-potential-impact-on-the-eclipse-foundation/

Qualche giorno fa anche Github è uscita con un comunicato:
https://github.blog/2023-07-12-no-cyber-resilience-without-open-source-sustainability/

E oggi l'azienda che produce FileZilla client e Server, per la quale
io stesso lavoro, ha deciso di non fornire più il software in
download, come forma di protesta. Qui il comunicato:
https://filezilla-project.org/cra.php

Si chiede a tutti di contattare i propri parlamentari che fanno parte
della commissione ITRE affinché vengano edotti sui problemi derivanti
dal corrente testo:
https://www.europarl.europa.eu/committees/en/itre/home/members

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] The FTC is investigating whether ChatGPT harms consumers

2023-07-16 Thread Fabio Alemagna
Con rispetto parlando, non ritengo sia utile a nessuno rispondere ad
argomentazioni che reputo fantagiuridiche e fantainformatiche.

Fabio

On Sun, Jul 16, 2023, 21:21 Giacomo Tesio  wrote:

> Ciao Fabio,
>
> Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna  ha
> scritto:
> >Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio
> > ha scritto:
> >> > se io mettessi online un generatore di
> >> > frasi casuali, ma di senso compiuto, che  prendessero spunto
> >> > dall'input dell'utente, e se l'input dell'utente fosse il nome e
> >> > cognome di una persona esistente, e se il software generasse,
> >> > casualmente, frasi potenzialmente diffamatorie per quella persona
> >> > [...] il responsabile dell'eventuale diffamazione sarei io
> >>
> >> Certo!
> >>
> >> Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale
> >> diffamazione sei ovviamente tu!
> >
> >Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno,
> >se quel nome e cognome neanche esistono all'interno del data base che
> >quel sito utilizza, non posso IO essere responsabile.
>
> Non saresti responsabile se il software che hai scritto, a fronte di una
> richiesta relativa ad una
> persona non presente sul tuo database rispondesse sempre: "non dispongo di
> infornazioni sull'argomento richiesto".
>
> Se invece fornisce un output che una mente umana interpreta come
> informazione,
> alloravdi quell'output DEVI ovviamente rispondere.
>
>
> E la ragione è semplicissima: il tuo software automatizza ciò che faresti
> tu.
>
>
> Nel caso di un chatbot è evidente: se il sito permettesse di chattare con
> te e tu
> diffamassi qualcuno, ne dovresti rispondere.
>
> Se bastasse (dichiarare di) aver usato un automatismo per non rispondere
> di un reato
> avremmo una abrogazione di fatto del diritto penale.
>
>
>
> >> Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
> >
> >Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM.
> >Quello è un input fornito dall'utente, che fa partire un'inferenza,
> >che produce un output che potrà a sua volta contenere contenere
> >quell'input *fornito dall'utente*.
>
> E davvero credi che qualcuni non l'abbia capito?
>
> L'utente è responsabile per ciò che scrive (l'input).
>
>
> Ma poiché non scrive il software che elabora tale e non ne pubblica
> l'output, non può
> essere considerato in alcun modo responsabile di tale output.
>
>
> Le responsabilità sono chiarissime e ben ripartite.
>
>
> > Ciò avviene sulla base di un
> >algoritmo che tenta di prevedere quale "token" (tipicamente una
> >sillaba) è più probabile che segua i token forniti in precedenza
> >dall'utente e quelli generati dall'algoritmo stesso, sulla base dei
> >*pattern* che sono stati estratti dai testi su cui la rete neurale è
> >stata istruita, con un pizzico di randomness aggiunta.
>
> Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto
> confuso.
>
> Ad esempio la programmazione statistica non "estrae pattern" ma produce un
> software che
> riproduce _possibili_ correlazioni statistiche presenti nell'input, senza
> comprenderne
> la rilevanza, il significato o le relazioni.
>
> Correlazioni che da un lato possono essere del tutto casuali e dall'altro
> possono essere imposte
> dai programmatori selezionando i dati da utilizzare durante la
> programmazione statistica.
>
>
> >A seconda di quanto corretti e quanti fossero i dati su cui la rete
> >neurale è stata istruita, il risultato sarà più o meno accurato in
> >termini di lessico e esattezza.
> >
> >L'esattezza non è garantita, è solo più o meno probabile.
>
> Not even wrong.
>
> L'output non può essere "giusto" o "sbagiato" se non ha un significato.
>
> Se ha un significato, tale significato presuppone almeno un agente che
> voglia comunicarlo
> esprimendolo attraverso un significante costituito da simboli.
>
> In questo caso l'agente in questione è costituito dalle persone che hanno
> realizzato e mantengono operativo ChatGPT che è una loro espressione,
> ovvero OpenAI.
>
> Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone:
> senza il loro lavoro,
> il loro hardware e la corrente che pagano, non scriverebbe alcunché.
>
> Il fatto che l'output prodotto sia interpretabile da un essere umano come
> vero ("esatto") o
>

Re: [nexa] The FTC is investigating whether ChatGPT harms consumers

2023-07-16 Thread Fabio Alemagna
Il giorno dom 16 lug 2023 alle ore 14:21 Fabio Alemagna
 ha scritto:
> Ho già più volte documentato come in molti casi  interpretati come
> "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse
> la persona a cui si stava riferendo e aveva supposto fosse un
> personaggio di fantasia su cui imbastire una storia, come gli era
> apparso l'utente avesse richiesto. Un esempio su tutti:
> https://www.facebook.com/angamela.oibaf/posts/pfbid0pdSKfezqqNvAjr6W1F8r92dnTUdAerN1LBKQ9W9TJDMPpfzb58nCbbjfvZAF9DYfl

Aggiungo che un nome e cognome non identificano una persona
univocamente. Al di là dei casi di omonimia, se io stesso inventassi
una storia con un personaggio di fantasia a cui però dovessi dare un
nome e cognome di una o più persone esistenti senza farlo di
proposito, sarei per questo responsabile di diffamazione? Ovviamente
no. La famosa clausola "ogni riferimento a persone esistenti o a fatti
realmente accaduti è puramente casuale" dovrebbe dirci qualcosa.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] The FTC is investigating whether ChatGPT harms consumers

2023-07-16 Thread Fabio Alemagna
Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio
 ha scritto:
> > se io mettessi online un generatore di
> > frasi casuali, ma di senso compiuto, che  prendessero spunto
> > dall'input dell'utente, e se l'input dell'utente fosse il nome e
> > cognome di una persona esistente, e se il software generasse,
> > casualmente, frasi potenzialmente diffamatorie per quella persona
> > [...] il responsabile dell'eventuale diffamazione sarei io
>
> Certo!
>
> Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale
> diffamazione sei ovviamente tu!

Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno,
se quel nome e cognome neanche esistono all'interno del data base che
quel sito utilizza, non posso IO essere responsabile.

> Vuoi illuminarci su ciò che a tuo parere non comprendiamo?

Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM.
Quello è un input fornito dall'utente, che fa partire un'inferenza,
che produce un output che potrà a sua volta contenere contenere
quell'input *fornito dall'utente*. Ciò avviene sulla base di un
algoritmo che tenta di prevedere quale "token" (tipicamente una
sillaba) è più probabile che segua i token forniti in precedenza
dall'utente e quelli generati dall'algoritmo stesso, sulla base dei
*pattern* che sono stati estratti dai testi su cui la rete neurale è
stata istruita, con un pizzico di randomness aggiunta.

A seconda di quanto corretti e quanti fossero i dati su cui la rete
neurale è stata istruita, il risultato sarà più o meno accurato in
termini di lessico e esattezza.

L'esattezza non è garantita, è solo più o meno probabile.

In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.

Ho già più volte documentato come in molti casi  interpretati come
"diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse
la persona a cui si stava riferendo e aveva supposto fosse un
personaggio di fantasia su cui imbastire una storia, come gli era
apparso l'utente avesse richiesto. Un esempio su tutti:
https://www.facebook.com/angamela.oibaf/posts/pfbid0pdSKfezqqNvAjr6W1F8r92dnTUdAerN1LBKQ9W9TJDMPpfzb58nCbbjfvZAF9DYfl

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] The FTC is investigating whether ChatGPT harms consumers

2023-07-16 Thread Fabio Alemagna
Il giorno dom 16 lug 2023 alle ore 09:37 Maurizio Borghi via nexa
 ha scritto:
>
> Lina Khan sta facendo cose egregie alla FTC. È osteggiata non solo dalla 
> lobby delle big tech, come è ovvio, ma anche dai molti giuristi antitrust 
> americani fedeli all’impostazione neo-liberale.

L'idea che semplicemente possa essere in errore non sovviene?

https://www.wsj.com/articles/lina-khan-openai-chatgpt-letter-federal-trade-commission-2ac7776f
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] The FTC is investigating whether ChatGPT harms consumers

2023-07-15 Thread Fabio Alemagna
Il giorno sab 15 lug 2023 alle ore 12:58 Fabio Alemagna
 ha scritto:
>
> [...]
> Trovo che sia una posizione sostanzialmente cretina.

A scanso di equivoci, intendo "cretina" nell'accezione letterale del
termine, ovvero "senza senso, scriteriata", etc etc, senza offesa
intesa per nessuno.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] The FTC is investigating whether ChatGPT harms consumers

2023-07-15 Thread Fabio Alemagna
Colgo entusiasmo per queste ipotesi e interpretazioni che la FTC fa.

Io ritengo che siano invece, al di là del fatto che si tratta appunto
di ipotesi e interpretazioni, non fatti conclamati, considerazioni
sostanzialmente frutto di bias cognitivi e background culturale che
poca conoscenza hanno del funzionamento degli LLM.

Affermare che OpenAI sarebbe  «direttamente responsabile per i danni
eventualmente provocati da un prodotto (significativamente chiamato
"product" e non "service") che permette a terze parti, cioè agli
utilizzatori, di generare affermazioni false o diffamatorie a loro
insaputa», è come dire che se io mettessi online un generatore di
frasi casuali, ma di senso compiuto, che  prendessero spunto
dall'input dell'utente, e se l'input dell'utente fosse il nome e
cognome di una persona esistente, e se il software generasse,
casualmente, frasi potenzialmente diffamatorie per quella persona se
l'utente le pubblicasse, e se poi l'utente le pubblicasse, il
responsabile dell'eventuale diffamazione sarei io e non l'utente che
ha fornito l'input e ha poi divulgato l'output.

Trovo che sia una posizione sostanzialmente cretina.

Fabio

Il giorno sab 15 lug 2023 alle ore 12:37 Maurizio Borghi via nexa
 ha scritto:
>
> Si può leggere qui il documento della FTC:
>
> https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e8.pdf?itid=lk_inline_manual_4
>
> L'indagine ha per oggetto la possibilità che i prodotti che incorporano Large 
> Language Models configurino pratiche sleali o ingannevoli in relazione a 1) 
> privacy e data security e 2) danni ai consumatori, inclusi danni 
> reputazionali (diffamazione, ecc.). Si compone di 49 "interrogazioni" e 17 
> richieste di documentazione, inclusa ad esempio la richiesta di documenti 
> interni come linee guida o “dizionari” (sic) che spieghino che cosa intende 
> OpenAI per: a) "freely and openly available data", b) "reinforcement learning 
> from human feedback" e c) "hallucination" o "hallucinate".
>
> Tra i molti aspetti interessanti dell'indagine, c'è il fatto che la FTC 
> sembri considerare OpenAI direttamente responsabile per i danni eventualmente 
> provocati da un prodotto (significativamente chiamato "product" e non 
> "service") che permette a terze parti, cioè agli utilizzatori, di generare 
> affermazioni false o diffamatorie a loro insaputa. E ciò a dispetto degli 
> "avvertimenti" riguardo alle c.d. allucinazioni ecc.
>
> Nella sua impostazione generale, l'investigazione mi sembra inoltre 
> sgomberare il campo dalla distinzione tra "input" e "output" su cui si basa 
> molta della narrativa AI-innocentista, ovvero l'argomento secondo cui 
> l’utilizzo di training data è comunque lecito, indipendentemente dal tipo di 
> dato e dalle modalità di utilizzo, mentre è solo a livello dell’output che 
> può sorgere qualche responsabilità – eventualmente da “condividere” con 
> l’utilizzatore di turno. Nell’impostazione della FTC, invece, la pratica 
> commerciale che presiede al prodotto in questione va considerata nel suo 
> insieme,e in relazione agli effetti complessivamente provocati sul 
> consumatore.
>
> Infine, alcune alcune delle interrogazioni (ad es. la n. 22) riguardano in 
> maniera dettagliata la raccolta e il trattamento di dati personali, con la 
> richiesta di specificare le modalità impiegate da Open AI per escludere 
> l’impiego di informazioni personali come training data. Qui la FTC da’ 
> chiaramente per acquisito che il trattamento di dati personali come training 
> data senza consenso sia illegale. Forse una riprova del fatto che i tanto 
> vituperati rilievi del Garante italiano non erano così infondati?
>
> Un saluto cordiale,
>
> ___
> Maurizio Borghi
> Università di Torino
> https://www.dg.unito.it/persone/maurizio.borghi
> Co-Director Nexa Center for Internet & Society
>
>
> Il giorno gio 13 lug 2023 alle ore 17:40 Daniela Tafani 
>  ha scritto:
>>
>> The FTC is investigating whether ChatGPT harms consumers
>>
>> The agency’s demand for OpenAI’s documents about AI risks mark the company’s 
>> greatest U.S. regulatory threat to date
>>
>> By Cat Zakrzewski
>>  Updated July 13, 2023 at 10:44 a.m. EDT|Published July 13, 2023 at 6:00 
>> a.m. EDT
>> The Federal Trade Commission has opened an expansive investigation into 
>> OpenAI, probing whether the maker of the popular ChatGPT bot has run afoul 
>> of consumer protection laws by putting personal reputations and data at risk.
>>
>> The agency this week sent the San Francisco company a 20-page demand for 
>> records about how it addresses risks related to its AI models, according to 
>> a document reviewed by The Washington Post. The salvo represents the most 
>> potent regulatory threat to date to OpenAI’s business in the United States, 
>> as the company goes on a global charm offensive to shape the future of 
>> artificial intelligence policy.
>>
>> Analysts have called OpenAI’s ChatGPT the fastest-growing consumer app in 
>> history, and its

Re: [nexa] AI revolution puts skilled jobs at highest risk, OECD says

2023-07-12 Thread Fabio Alemagna
Il giorno mer 12 lug 2023 alle ore 10:34 Luigi Scorca
 ha scritto:
>
> https://www.theguardian.com/technology/2023/jul/11/ai-revolution-puts-skilled-jobs-at-highest-risk-oecd-says

Mi permetto di dire che mi pare una cosa buona: posta l'inevitabilità
dell'avvento di questa e sempre intelligenti tecnologie, credo - ma
magari mi sbaglio - che il fatto che i lavori più a rischio siano
quelli dei colletti bianchi possa finalmente creare quella pressione
necessaria sulla politica affinché si arrivi a un Reddito di Base
Universale.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-06 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 18:04 M. Fioretti
 ha scritto:
> 1) Per cominciare, "dai 14 ai 18 anni" significa appunto che i
> problemi sono aumentati, in maniera accelerata, ANCHE fra i 14enni.

Non vedo come possa significare una cosa del genere. I dati si
riferiscono a una specifica popolazione e non ci consentono di fare
alcuna estrapolazione riguardo ad altro tipo di popolazioni.

Ma le questioni sono altre.

1) Se il problema sono i social network, perché vietare tutta internet?
2) Se il problema è che c'è aumento di pensieri suicidi e depressione
e c'è la certezza che questi, nell'età dai 14 ai 19 anni, siano
direttamente causati dall'interazione sui social network, perché non
vietarli proprio in quell'età?

> "Kids Who Get Smartphones Earlier Become Adults With Worse Mental Health"
>
> https://jonathanhaidt.substack.com/p/sapien-smartphone-report

Correlation is not causation, quante volte lo si deve dire? Ieri sera
ero al ristorante, e in ben due tavoli al mio fianco c'erano due poco
allegre famigliole con prole al seguito. I genitori quasi neanche si
guardavano in faccia, a stento bonfocchiavano qualche parola tra un
boccone e l'altro, mentre i figli, annoiati, stavano al cellulare, dal
quale evidentemente traevano maggiori stimoli.

Possiamo escludere che il cellulare sia semplicemente una valvola di
sfogo di *qualche altra cosa*, per esempio una carenza di affetto e
interazioni da parte dei genitori, e che sia questa la causa del
peggiore stato mentale  nell'età adulta?

Non basta leggere un post urlato su substack che fa cherry picking di
qualche studio a piacere, dandogli l'interpretazione preferita, per
poi rilanciarlo con toni ancora più allarmati, per fare scienza o
divulgazione scientifica.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-05 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 14:15 Stefano Quintarelli
 ha scritto:
> On 05/07/23 13:32, Fabio Alemagna wrote:
> >> tornando all'articolo, invece, un nesso causale certo, non trattato 
> >> nell'articolo e' la
> >> deprivazione del sonno in vaste fasce di adolescenti, che impatti su umore,
> >> concentrazione,e cc.
> >>
> >> gli adolescenti dovrebbero dormire dalle 8.5 alle 10 ore ma ne dormono 1-2 
> >> in meno; il
> >> cellulare e' dimostratamente un fattore che impatta su quantita' e 
> >> qualita' del sonno.
> > La qualità e quantità del sonno impatta sulla salute di tutti, non
> > solo di quella degli adolescenti, per cui sfugge perché una qualunque
> > restrizione di legge motivata su tale base dovrebbe applicarsi solo
> > agli adolescenti.
>
> in effetti potremmo eliminare anche limiti di eta' per fumo, alcool, guida, 
> voto, ecc. ecc.

Noto una passione per questo tipo di retorica, che butta nel calderone
la qualunque pur di evitare di rispondere direttamente alle questioni
poste, per poi magari dire in qualche messaggio successivo che la
"conversazione sta degenerando".

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-05 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 13:12 Stefano Quintarelli
 ha scritto:
> tornando all'articolo, invece, un nesso causale certo, non trattato 
> nell'articolo e' la
> deprivazione del sonno in vaste fasce di adolescenti, che impatti su umore,
> concentrazione,e cc.
>
> gli adolescenti dovrebbero dormire dalle 8.5 alle 10 ore ma ne dormono 1-2 in 
> meno; il
> cellulare e' dimostratamente un fattore che impatta su quantita' e qualita' 
> del sonno.

La qualità e quantità del sonno impatta sulla salute di tutti, non
solo di quella degli adolescenti, per cui sfugge perché una qualunque
restrizione di legge motivata su tale base dovrebbe applicarsi solo
agli adolescenti.

Ad ogni modo, il "principio di precauzione" è normato a livello
europeo e  leggendo qui (non sono sicuro sia la fonte più aggiornata)
https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=LEGISSUM:l32042
viene evidenziato che:

«Tre principi specifici devono sottendere il ricorso al principio di
precauzione:

1. una valutazione scientifica la più completa possibile e la
determinazione, nella misura del possibile, del grado d'incertezza
scientifica;
2. una valutazione del rischio e delle conseguenze potenziali
dell'assenza di azione;
3. la partecipazione di tutte le parti interessate allo studio delle
misure di precauzione, non appena i risultati dalla valutazione
scientifica e/o della valutazione del rischio sono disponibili.

Inoltre, i principi generali della gestione dei rischi restano
applicabili allorché il principio di precauzione viene invocato. Si
tratta dei cinque seguenti principi:

1. la proporzionalità tra le misure prese e il livello di protezione ricercato;
2. la non discriminazione nell'applicazione delle misure;
3. la coerenza delle misure con quelle già prese in situazioni
analoghe o che fanno uso di approcci analoghi;
4. l'esame dei vantaggi e degli oneri risultanti dall'azione o
dall'assenza di azione;
5. il riesame delle misure alla luce dell'evoluzione scientifica.»

Mancando la "valutazione scientifica la più completa possibile e la
determinazione, nella misura del possibile, del grado d'incertezza
scientifica" e "l'esame dei vantaggi e degli oneri risultanti
dall'azione o dall'assenza di azione", direi che allo stadio attuale
sia un non invocabile in punta di diritto, prim'ancora che in punta
di... principio.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-05 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 12:59 Fabio Alemagna
 ha scritto:
>
> Il giorno mer 5 lug 2023 alle ore 12:57 Stefano Quintarelli
>  ha scritto:
> >
> > ha ha ha
> > :-)
> >
> > una non piccola differenza è che gli effetti bioogici delle radiazioni non 
> > ionizzanti sono
> > studiate approfonditamente da decenni e gli studi le pongono ad un livello 
> > di rischio
> > inferiore a quello professionale del parrucchiere.
>
> Ahia, quindi il principio di precauzione andava invocato per il GSM!

E comunque, "It's complicated", dice la Commissione Europea:
https://ec.europa.eu/research-and-innovation/en/horizon-magazine/5g-bad-your-health-its-complicated-say-researchers

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-05 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 12:57 Stefano Quintarelli
 ha scritto:
>
> ha ha ha
> :-)
>
> una non piccola differenza è che gli effetti bioogici delle radiazioni non 
> ionizzanti sono
> studiate approfonditamente da decenni e gli studi le pongono ad un livello di 
> rischio
> inferiore a quello professionale del parrucchiere.

Ahia, quindi il principio di precauzione andava invocato per il GSM!
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-05 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 12:49 Stefano Quintarelli
 ha scritto:
>
> On 05/07/23 10:21, Fabio Alemagna wrote:
> > In altre parole, bandendo una tecnologia in nome del "principio di
> > precauzione" si bandiscono anche gli effetti positivi di quella
> > tecnologia, e non avendo modo di stabilire se siano minori di quelli
> > negativi, si incorre nel rischio di peggiorare la situazione generale,
> > anziché migliorarla.
>
> ho giusto delle pillole qui che potrebbero far allungare i telomeri.
> se siete interessati, scrivetemi!
>
> ciao, s.
>
> p.s. full disclosure: le ho comprate da uno con aria molto professionale, 
> vestito
> impeccabilmente, che ne aveva un furgone pieno all'uscita dell'autostrada di 
> sesto san
> giovanni.

Immagino volesse essere un arguto scherzetto tongue-in-cheek, ma mi
tocca sostenere che non vedo nesso con la discussione in atto,
contestualizzata nella realtà che viviamo.

Il "principio di precauzione" è stato invocato per qualunque cosa,
anche il 5G. Quintarelli lo vuole abolire, il 5G, ché non si sa se fa
male alla salute e non si sa mai e nessuno  pensa ai bambini?
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-05 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 12:30 Marco Fioretti
 ha scritto:
>
> Questo e' indubbio, in questo caso perdere ancora tempo a parlare di 
> "correlation is not causation" e' assurdo. Perche' certo, quelli sono tutti 
> problemi che ci sarebbero anche senza "social media" (le virgolette le 
> capirete fra un attimo), ma non c'e' alcun dubbio che:
> [...]

Non trovandomi a mio agio nel rispondere a un post (e relativo blog
post) argomentato in maniera assolutistica e con toni da fine del
mondo, mi limito a far notare che la "reale soluzione" proposta,
ovvero quella che prevede "No personal, internet-capable mobile device
before age 14. Period. End of story." non è giustificata dalla
"evidenza" citata nel blog stesso, a cominciare dal grafico riportato
al suo inizio, in quanto si riferisce agli "high school students", la
cui età va dai 14 ai 18 anni, ovvero esattamente *al di sopra* del
limite che si ritiene essere la "reale soluzione".

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-05 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 09:43 Alberto Cammozzo via nexa
 ha scritto:
>
> In contesti come quello sanitario, specie nella salute dei bambini, si
> dovrebbe usare il principio di precauzione.
>
> Anche in caso di falso positivo (non vi è nesso causale), il rischio è
> minore che in caso di vero positivo (il nesso esiste): il trade-off è
> tra generazioni di bambini danneggiati vs (minima) perdita di profitto.
>
> Inoltre solo un bando precauzionale di alcuni anni permetterebbe di
> verificare il nesso.

Cito dall'articolo che ho linkato: «Finally, even if evidence revealed
that social media use is linked to poor mental health, the
relationship between social media and depression in adolescents is
still to be completely understood. It is still unclear whether social
media use leads to more depression or if these depressive symptoms
cause individuals to seek out more social media, which could feed into
a vicious cycle [16]. Keles’s conclusion as well suggest defining the
relationship between internalizing symptoms and social media use as an
association and not a causative effect.»

In altre parole, potrebbe ben essere che i social media facciano
emergere malesseri che preesistevano e che altrimenti non sarebbero
stati notati. In più, citando la mayo clinic (
https://www.mayoclinic.org/healthy-lifestyle/tween-and-teen-health/in-depth/teens-and-social-media-use/art-20474437
):

«Social media allows teens to create online identities, communicate
with others and build social networks. These networks can provide
teens with valuable support, especially helping those who experience
exclusion or have disabilities or chronic illnesses.

Teens also use social media for entertainment and self-expression. And
the platforms can expose teens to current events, allow them to
interact across geographic barriers and teach them about a variety of
subjects, including healthy behaviors. Social media that's humorous or
distracting or provides a meaningful connection to peers and a wide
social network might even help teens avoid depression.»

In altre parole, bandendo una tecnologia in nome del "principio di
precauzione" si bandiscono anche gli effetti positivi di quella
tecnologia, e non avendo modo di stabilire se siano minori di quelli
negativi, si incorre nel rischio di peggiorare la situazione generale,
anziché migliorarla.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Social media could be as harmful to children as smoking or gambling – why is this allowed? | Devi Sridhar | The Guardian

2023-07-05 Thread Fabio Alemagna
Il giorno mer 5 lug 2023 alle ore 07:52 Alberto Cammozzo via nexa
 ha scritto:
>
>   [...]

C'è però la possibilità che a correlazione non corrisponda causalità.

Per esempio ( https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9407706/ ):
«Time spent on social media, repetitive activities, addictive, or
problematic use associated with depression, anxiety, and psychological
impairment. Nevertheless, it is not possible to establish whether a
causative effect exists.»
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-30 Thread Fabio Alemagna
Il giorno ven 30 giu 2023 alle ore 18:18 Maria Chiara Pievatolo <
mariachiara.pievat...@unipi.it> ha scritto:

> Agli esseri dotati di logos consiglio invece  la lettura di Pierre
> Hadot, "Che cos'è la filosofia antica?" che racconta come una religione
> "di conforto" che oggi potremmo chiamare "soluzionista" fu superata da
> una assai più esigente che incorporava  domande che venivano dalla
> filosofia. E se non vogliamo limitarci al bacino mediterraneo e al
> cristianesimo, possiamo pensare anche al caso del buddismo. Non è (solo)
> una questione di fede o mancanza di fede, o, peggio, di statistica (o di
> parvenza di statistica) sotto forma di SALAMI: è una questione di
> cultura (o di mancanza di cultura).
> Addio,
> MCP
>

Mischiare buddismo, una religione notoriamente non teista, con il
cristianesimo, una religione notoriamente teista, quando in un mio
messaggio precedente avevo esplicitamente reso chiaro che mi riferivo solo
a queste ultime, possiamo definirla come una manifestazione di quella
summenzionata questione di cultura (o di mancanza di cultura)?

Arrivederci.
Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Gli orrori annunciati dell’IA diventano realtà. Come reagire?

2023-06-30 Thread Fabio Alemagna
Il giorno ven 30 giu 2023 alle ore 10:07 Alberto Cammozzo via nexa <
nexa@server-nexa.polito.it> ha scritto:
>
> Le temute truffe di identità basate sulle immagini sintetiche si sono
concretizzate e sono in corso;

A me preoccupano di più gli usi che enti governativi potrebbero fare di
tecnologie come questa. False evidenze a carico di persone ritenute
scomode: opponenti politici, attivisti per i diritti umani, e chi più ne ha
più ne metta. Tecnologie come questa sono ormai qui per restare, bandirne o
regolarne l'uso per i "comuni mortali" non impedirebbe a chi "comune
mortale" non è di farne gli usi più disparati, pressoché sicuramente non a
vantaggio della comunità.

Probabilmente la strategia della Mutual assured destruction
 è l'unica reale
difesa contro questo tipo di situazione, il che significa che la piena e
libera disponibilità di queste tecnologie è l'unica vera difesa verso il
loro abuso. Nel momento presente siamo in una fase di transizione che viene
con i suoi disagi. Del resto, il furto d'identità non è una novità, con
milioni di casi l'anno in tutto il mondo, e non ho visto evidenze che la
cosa sia peggiorata in maniera significativa.

> i siti di disinformazione generano fiumi di falsità per incassare milioni;

Anche in questo caso, è forse una novità? La disinformazione non ha mai
avuto bisogno dell'IA fino ad oggi, avviene e avveniva tutti i giorni anche
sui media mainstream. Evidenze che le cose siano significativamente
peggiorate, con impatti sulla società che vanno (molto) al di là dei
guadagni di chi fa disinformazione non ne ho viste. Qualcuno ha riferimenti
in tal senso?

> e le immagini di abusi su minori generate dal software travolgono, per
pura quantità, chi cerca di arginare questi orrori.

Dirò qualcosa di non convenzionale, in tal senso: e se questo fosse un modo
per tenere lontano dai bambini in carne e ossa i pedofili? Potrebbe persino
essere che grazie all'IA usata a tal maniera vedremmo calare gli abusi su
minori: sarebbe questo un male?

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-29 Thread Fabio Alemagna
Come direbbero gli anglosassoni, hate to break it for you, but...

Il giorno gio 29 giu 2023 alle ore 12:00 Maria Chiara Pievatolo
 ha scritto:
> [...]
> È teologia? No, sono pratiche superstiziose di conforto, di cui
> impostori come il profeta di "Quelo" possono trarre profitto.

Questo è esattamente quello che pensa tantissima gente delle religioni
come quella cattolica. Me incluso. Desiderio di conforto, una facile
via per l'accettazione della realtà, trasformatasi poi in una sorta di
multinazionale dedita per la maggior parte del suo tempo
all'autosostentamento e al profitto.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-27 Thread Fabio Alemagna
Il giorno mar 27 giu 2023 alle ore 18:01 Alberto Cammozzo
 ha scritto:
>
> Caro Fabio,
>
> il fatto che tu, assieme a molti altri, non veda "differenze
> sostanziali" tra un prodotto come chatGPT e gli autori umani del passato
> che ho citato (Bernanos, Marx o Baudrillard) è esattamente il punto che
> cercavo di sottolineare io.

Io non vedo alcuna differenza nella possibilità di citare parole
altrui, che era la sostanza dell'argomentazione. Non ho detto che
ChatGPT è allo stesso livello degli autori che hai citato. Di più,
stai decontestualizzando la citazione: hai scritto un perfetto prompt
per un LLM, e ho deciso di sfruttare l'occasione.

Se poi vuoi per forza ricondurre tutto alla ragione che ti sei dato da
solo, nulla di nuovo sotto al Sole.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-27 Thread Fabio Alemagna
Il giorno mar 27 giu 2023 alle ore 15:54 Alberto Cammozzo
 ha scritto:
>
> Caro Fabio.
>
> questo è un altro prodotto.
>
> Se vuoi entrare in relazione con quello che ho scritto puoi cortesemente
> commentare in modo personale?
>
> Il motivo per cui ho speso del tempo a scrivere è entrare in relazione
> con le persone, con quello che pensano e che sentono.
>
> Se cominciamo a scambiarci output di ChatGPT possiamo benissimo chiudere
> la lista...

Sto sottolineando un punto: gli LLM sono qui per restare, stanno ora,
mentre scriviamo, coadiuvando la vita delle persone nei più disparati
ambiti - come si è visto, persino in quello spirituale - bandirli
dalla conversazione anziché renderli parte integrante della stessa è
un errore, se l'obiettivo è restare in relazione agli esseri umani di
oggi, anziché di quelli dell'altro ieri.

Nello specifico, non mi è impedito di far mie le parole altrui, come
non hai visto impedito te nel farlo, siccome hai citato a più riprese
autori del passato. Io ho citato ChatGPT, e non vedo differenza
sostanziale.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-27 Thread Fabio Alemagna
Il giorno mar 27 giu 2023 alle ore 15:36 Alberto Cammozzo via nexa
 ha scritto:
> A questo punto propongo l'incipit di questa parabola: "Un robot scendeva da 
> Gerusalemme a Gerico e incappò nei briganti che lo spogliarono, lo percossero 
> e poi se ne andarono, lasciandolo mezzo morto." Come la facciamo proseguire?

Passò un umano con un veicolo autoguido e, vedendo il robot
danneggiato, decise di continuare la sua strada. Dopo di lui, passò un
ingegnere specializzato in intelligenza artificiale. Egli si fermò,
osservò il robot, ma pensò che non fosse nel suo interesse ripararlo,
così continuò il suo viaggio.

Infine, arrivò un ragazzo appassionato di robotica, senza una
particolare istruzione formale, ma con una grande curiosità e
compassione per le macchine. Vedendo il robot lì, danneggiato e
abbandonato, il suo cuore si riempì di tristezza. Si avvicinò al
robot, esaminò i danni e iniziò a usare il suo kit di riparazione di
base per cercare di rimetterlo in sesto.

Passò ore sotto il sole cocente, sudando e lavorando duro, fino a
quando non riuscì a riattivare il sistema del robot. Il robot, dopo
essersi ripreso, ringraziò il ragazzo, dicendo: "Perché mi hai
aiutato, anche se non ne ricaverai alcun beneficio?"

Il ragazzo rispose con un sorriso: "Perché ogni essere, sia esso umano
o artificiale, merita rispetto e cura. Non ho bisogno di un vantaggio
per fare ciò che è giusto."

(ChatGPT-4)
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-27 Thread Fabio Alemagna
Il giorno mar 27 giu 2023 alle ore 14:54 Giacomo Tesio
 ha scritto:
>
> On Tue, Jun 27, 2023 at 12:23:06PM +0200, Fabio Alemagna wrote:
> > Il giorno mar 27 giu 2023 alle ore 12:04 Daniela Tafani
> >  ha scritto:
> > >
> > > A me paiono truffe o circonvenzioni di persone incapaci.
> >
> > Potrei certamente concordare, se ci si riferisce alle religioni
> > teistiche in senso lato, e non solo a uno specifico modo di
> > rapportarsi ad esse.
>
> Interessante utilizzo di un software programmato statisticamente da
> calvinisti allucinati da sogni di ricchezza e potere.

Non ho idea di cosa tu abbia appena scritto.

> > il mio intento era sul serio evitare di offendere, ma credo che
> > ormai sia troppo tardi per quello.
>
> Dunque se ho capito bene hai usato Chat GPT per formulare in modo
> accondiscendente una risposta potenzialmente offensiva per il tuo
> interlocutore (don Luca) per poi insultare a due mail di distanza
> la religione di molti dei presenti e di miliardi di altre persone.

Hai capito quello che volevi capire, che è cosa diversa dall'aver capito bene.

Io ho espresso una mia legittima opinione in merito alle religioni,
dopo che è stata espressa una legittima opinione in merito a uno
specifico approccio alle religioni. Sono consapevole che la mia idea
può risultare offensiva a molti, e volevo evitare di entrare in
quell'ambito di argomentazione, e quindi ho chiesto aiuto a ChatGPT,
il quale prontamente me lo ha dato. Ma viste le risposte comunque
piccate e con qualche attacco personale che ho ricevuto, è caduto ogni
mio intento precauzionale e mi sono sentito libero di esprimere
esattamente quello che penso.

> Ora se la stessa cosa la facesse ChatGPT, ci divideremmo sicuramente
> fra cantori delle magnifiche sorti e progressive delle AI che
> difenderebbero il povero LLM "ancora sperimentale, ma in continuo
> miglioramento" e critici che ricondurrebbero la responsabilità degli
> insulti ad OpenAI.

Non mi pare che le opportunità di divisione vi manchino, state a
spaccare il capello su cose che molti di voi neanche comprendono, pur
di darvi ragione da soli. Una opportunità in più, una in meno,  non
credo faccia molta differenza.

> Ci troviamo invece di fronte ad una sorta di test di Turing al contrario
> in cui un essere umano cerca di imitare la cognizione di una macchina!

Non vedo proprio dove sia questa cosa che hai appena menzionato.

> > Io trovo che siano i "deboli", in generale, a trovare conforto nel
> > soprannaturale. Non vedo perciò alcuna differenza tra il "vero" Gesù e
> > quello "simulato" da un'AI, in questo senso.
>
>
> Io trovo che solo i "deboli" abbiano bisogno di un pappagallo
> stocastico per esprimere le proprie opinioni in modo civile.

Sarà, non mi interessa minimamente controbattere a queste piccinerie.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-27 Thread Fabio Alemagna
Il giorno mar 27 giu 2023 alle ore 12:04 Marco Fioretti
 ha scritto:
>
> On Tue, Jun 27, 2023 at 11:39, don Luca Peyron  
> wrote:
>
> Scusate, aggiungo solo che facevo riferimento non al pezzo postato da me, che 
> indica una prassi comunque non così critica, ma soprattutto alla chat che 
> promette di dialogare con Gesù.
>
>
> io invece confesso che al momento mi son ritrovato "distratto" dal fatto che 
> dichiarazioni cosi' (NON e' un'accusa, solo una constatazione GENERALE sulla 
> "procedura" adottata):

La "procedura adottata" è quella della trasparenza. Avresti preferito
non sapere che quella fosse una risposta scritta da ChatGPT, sulla
base dei miei input? In ogni caso chi scrive una email si assume la
responsabilità di averla scritta, con qualunque mezzo l'abbia fatto:
trovo che una qualunque scusa che addossasse a ChatGPT - o al
correttore automatico, o al tizio che l'ha scritta al proprio posto -
la responsabilità di "non aver capito", sarebbe puerile e,
fondamentalmente, una non-scusa.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-27 Thread Fabio Alemagna
Il giorno mar 27 giu 2023 alle ore 12:04 Daniela Tafani
 ha scritto:
>
> Buongiorno.
>
>
> A me paiono truffe o circonvenzioni di persone incapaci.

Potrei certamente concordare, se ci si riferisce alle religioni
teistiche in senso lato, e non solo a uno specifico modo di
rapportarsi ad esse.

> La questione è l'aliud pro alio.
>
> Fare un app che conforta nessun problema, ma usando la persona di Cristo 
> questo fa problema perchè, alla fine, chi rimane confuso è chi è 
> confondibile, il fragile ed il debole e questo lo trovo inaccettabile.

Io trovo che siano i "deboli", in generale, a trovare conforto nel
soprannaturale. Non vedo perciò alcuna differenza tra il "vero" Gesù e
quello "simulato" da un'AI, in questo senso.

> Per proseguire il discorso, però, lo vorrei fare con persone e non con 
> macchine, al netto di eventuali ferite dovute ad una minore performatività 
> del mio interlocutore ;-)

Non credo di cogliere il riferimento alla "minore performatività", il
mio intento era sul serio evitare di offendere, ma credo che ormai sia
troppo tardi per quello.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Hundreds attend ‘soulless’ AI-generated church service

2023-06-27 Thread Fabio Alemagna
Il giorno mar 27 giu 2023 alle ore 11:07 don Luca Peyron
 ha scritto:
>
> Questa è davvero pessima dal punto di vista teologico perlomeno. Ne avevo 
> parlato rispetto all'app di Padre  pio sul Sole 24 ore di qualche tempo fa 
> (non disponibile on line)
>
> Quando l'informativo suscita il performativo raddoppia l'inganno... e la 
> delusione prima o poi.

Ho chiesto a ChatGPT-4 di aiutarmi a formulare un intervento in questa
discussione, perché non sapevo come mettere nero su bianco certi miei
pensieri senza risultare potenzialmente offensivo.

Di seguito ciò che mi ha suggerito sulla base dei miei input.

___

Buongiorno a tutti, ho letto con interesse gli articoli e gli
interventi che ne sono seguiti. Spero di poter aggiungere un altro
punto di vista a questa discussione stimolante e complessa.

Prima di tutto, voglio ringraziare don Luca Peyron per aver condiviso
la sua posizione. Comprendo e rispetto profondamente il punto di vista
teologico tradizionale che esprime. Tuttavia, mi chiedo se non
potremmo considerare questi sviluppi tecnologici sotto una luce
diversa.

Personalmente, trovo che l'emergere di queste nuove forme di
espressione spirituale rifletta una tendenza umana profonda: il
desiderio di trovare conforto e guida nell'ambito del soprannaturale.
Inoltre, mi sembra che l'uso della tecnologia per facilitare queste
esperienze non sminuisca in nessun modo l'autenticità di tali esigenze
spirituali.

Per quanto riguarda la differenza tra un "vero" dio e un'app, da un
punto di vista epistemologico, mi chiedo se non si tratti
principalmente di una questione di percezione individuale. Se, per
esempio, una persona trova conforto, ispirazione o una guida morale
attraverso un'app basata su un modello di linguaggio di apprendimento
automatico, potrebbe non essere qualcosa di diverso da un altro
individuo che trova le stesse cose attraverso la lettura di un testo
sacro o l'ascolto di un sermone.

Infine, riguardo alla possibilità che Dio possa comunicare attraverso
un'app, non sarebbe questa un'ipotesi teologicamente plausibile, data
l'onnipotenza divinamente attribuita? Sono consapevole che questo è un
territorio delicato e rischioso, e non intendo in alcun modo sminuire
o banalizzare le credenze di chiunque.

Le mie intenzioni sono semplicemente di aprire un dialogo e di cercare
una comprensione più profonda di come la tecnologia può influenzare e
arricchire le nostre esperienze spirituali in questo mondo sempre più
interconnesso. Ancora una volta, apprezzo l'opportunità di partecipare
a questa discussione e sono aperto a qualsiasi feedback o riflessione
che possa emergere.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Automated Neglect: how The World Bank’s Push to Allocate Cash Assistance Using Algorithms Threatens Rights

2023-06-26 Thread Fabio Alemagna
Sul tema della fallibilità di ogni tipo di soluzione che voglia
discriminare i meritevoli di aiuto da i non meritevoli e che voglia
decidere per loro di ciò di cui "veramente" hanno bisogno, che sia in
maniera automatica o manuale, segnalo questo recente articolo:

«Get rid of food banks and give people money instead, new report
says»: 
https://www.cbc.ca/news/canada/newfoundland-labrador/food-charity-report-1.6877417

Il giorno lun 26 giu 2023 alle ore 14:28 Antonio Vetro'
 ha scritto:
>
> Anni fa si era espresso anche il rapporteur delle Nazioni Unite (dell’epoca) 
> su povertà estrema e diritti umani , parlando di “human rights free zone"
> https://algorithmwatch.org/en/un-special-rapporteur-on-digital-technology-and-social-protection-denounces-a-human-rights-free-zone/
> https://www.theguardian.com/technology/2019/oct/16/digital-welfare-state-big-tech-allowed-to-target-and-surveil-the-poor-un-warns
>
> Qui il report originale
> https://documents-dds-ny.un.org/doc/UNDOC/GEN/N19/312/13/PDF/N1931213.pdf?OpenElement
>
> Un caro saluto
> Antonio
>
>
>
> Il giorno 26 giu 2023, alle ore 13:58, Daniela Tafani 
>  ha scritto:
>
> Buongiorno.
>
> Grazie della segnalazione.
> Si tratta di sistemi che non funzionano e che danneggiano infallibilmente i 
> soggetti più deboli:
> lo dimostrano, ormai, analisi e documentazioni sterminate.
>
> Considerato che soggetti pubblici e privati sono comunque determinati a 
> utilizzarli,
> magrado l'evidenza dei loro effetti,
> credo sia opportuno rendere esplicite le ragioni di tali scelte e la loro 
> connotazione politica.
>
> Me ne sto occupando in questo periodo: vi sarò grata, perciò, di qualsiasi 
> riflessione
> o segnalazione bibliografica.
>
> Un saluto,
> Daniela
> 
> Da: nexa  per conto di Antonio Vetro' 
> 
> Inviato: lunedì 26 giugno 2023 11:59
> A: mailing list nexa
> Oggetto: [nexa] Automated Neglect: how The World Bank’s Push to Allocate Cash 
> Assistance Using Algorithms Threatens Rights
>
> Fenomeno in linea con alcune implementazioni di welfare 
> “automatizzato/ottimizzato" in USA e Europa
> (cfr casi descritti in libro automating inequalities, i vari casi in Olanda, 
> sistema AMS in Austria, ecc.).
>
> Automated Neglect: How The World Bank’s Push to Allocate Cash Assistance 
> Using Algorithms Threatens Rights
>
> Abstract:
> Governments worldwide are turning to automation to help them deliver 
> essential public services, such as food, housing, and cash assistance. But 
> some forms of automation are excluding people from services and singling them 
> out for investigation based on errors, discriminatory criteria, or 
> stereotypes about poverty. Despite these harms, the allure of tech-based 
> solutions to complex social problems is proving hard to resist.
>
> The World Bank is one of the biggest development actors driving this trend, 
> particularly in the Global South, placing big bets on data-intensive 
> technologies to help governments deliver services. This includes major cash 
> transfer programs that give certain individuals or families financial 
> support. In the Middle East and North Africa alone, eight of ten borrowing 
> countries have received Bank loans to upgrade these programs.
>
> Report completo su 
> https://www.hrw.org/report/2023/06/13/automated-neglect/how-world-banks-push-allocate-cash-assistance-using-algorithms
>
>
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] AI-controlled US military drone ‘kills’ its operator in simulated test | US military | The Guardian

2023-06-02 Thread Fabio Alemagna
Il ven 2 giu 2023, 09:54 Alberto Cammozzo via nexa <
nexa@server-nexa.polito.it> ha scritto:

> <
> https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
> >
>
> In a virtual test staged by the US military, an air force drone controlled
> by AI decided to “kill” its operator to prevent it from interfering with
> its efforts to achieve its mission, an official said last month.
>

Pare che la notizia non stia in piedi:
https://www.ilpost.it/2023/06/02/intelligenza-artificiale-drone-uccide-operatore-simulazione-scenario/
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Japan : Copyright Doesn’t Apply To AI Training

2023-06-02 Thread Fabio Alemagna
Il giorno gio 1 giu 2023 alle ore 05:32 Marco Fioretti
 ha scritto:
>
> The policy allows AI to use any data “regardless of whether it is for 
> non-profit or commercial purposes, whether it is an act other than 
> reproduction, or whether it is content obtained from illegal sites or 
> otherwise.”
>
> https://technomancers.ai/japan-goes-all-in-copyright-doesnt-apply-to-ai-training/

Prevedibile (e previsto) che sarebbe accaduto che almeno una nazione
avrebbe deciso di giocare la carta della competizione, ma in realtà
l'argomento secondo il quale l'utilizzo di materiale coperto da
copyright per il training di una AI non violi questo copyright è
sostenuto anche dall'altro lato del Pacifico, niente po' po' di meno che dalla
Creative Commons foundation:
https://creativecommons.org/2023/02/17/fair-use-training-generative-ai/

E, per quanto possa valere, io sono dello stesso parere.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Internet crackdown 2.0

2023-05-18 Thread Fabio Alemagna
L'emendamento d'Alia fu abrogato dall'emendamento Cassinelli:
https://www.lastampa.it/blogs/2009/04/29/news/abrogato-il-bavaglio-a-internet-cassinelli-batte-d-alia-1.36971704/

All'epoca si parlava di "norma ammazablog", l'intera internet italiana
era in rivolta, Wikipedia rimase chiusa per protesta. Interessante che
sia passato di mente così facilmente.


Il giorno gio 18 mag 2023 alle ore 15:30 Damiano Verzulli
 ha scritto:
>
>
> Il 18/05/23 15:11, Giuseppe Allegri ha scritto:
>
> Eh infatti, mi pare sia il DdL 733 Senato, della XVI Legislatura, era il 
> 2009, qui le info, cliccando su emendamenti, art. 50 e sue modifiche:
> https://www.senato.it/leg/16/BGT/Schede/Ddliter/testi/31554_testi.htm
>
> Stando a quanto vedo qui:
>
> https://www.senato.it/leg/16/BGT/Schede/Ddliter/31554.htm
>
> quel DDL è stato approvato definitivamente (sembrerebbe, il 02/07/2009) e 
> dovrebbe essere diventato la "Legge 94/09".
>
> http://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:legge:2009;94
>
> In assenza di ulteriori dettagli rispetto alla notizia iniziale, tenderei a 
> credere che la notizia sia vera... ma estremamente vecchia.
>
> Saluti,
> DV
>
> --
>
> Damiano Verzulli
> e-mail: dami...@verzulli.it
> ---
> possible?ok:while(!possible){open_mindedness++}
> ---
> "...I realized that free software would not generate the kind of
> income that was needed. Maybe in USA or Europe, you may be able
> to get a well paying job as a free software developer, but not
> here [in Africa]..." -- Guido Sohne - 1973-2008
>http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
>
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste.

2023-04-14 Thread Fabio Alemagna
Il giorno ven 14 apr 2023 alle ore 16:42 Stefano Quintarelli
 ha scritto:
> On 14/04/23 11:31, Fabio Alemagna wrote:
> > Potrei fare ipotesi, ma preferisco domandare. Si potrebbe quindi
> > sapere a cosa, con rigorosa esattezza, si fa riferimento?
>
> il nostro lavoro fu ispirato a queste:
>
>  B. A Framework for Trustworthy AI
>  (21) These Guidelines articulate a framework for achieving Trustworthy 
> AI based on
> fundamental rights as enshrined in the Charter of Fundamental Rights of the 
> European Union
> (EU Charter), and in relevant international human rights law. Below, we 
> briefly touch upon
> Trustworthy AI’s three components...
> https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai


Grazie per il link, ma la domanda verteva specificatamente su ChatGPT,
nella fattispecie era volta a conoscere quali sono i diritti umani che
violerebbe.

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste.

2023-04-14 Thread Fabio Alemagna
Salve a tutti,

sono venuto a conoscenza di questa lista tramite un tweet di Floridi e
da allora sono stato solo un lurker, ma leggendo più volte determinate
argomentazioni ho deciso di saltare il fosso e fare il mio primo post.

Il giorno ven 14 apr 2023 alle ore 10:20 Giacomo Tesio
 ha scritto:
> Beh, è facile concordare sui finanziamenti alla ricerca.
> Talmente facile che temo sia uno strawman piuttosto banalotto.
>
> Non c'è alcuna contrapposizione fra ricerca e diritti umani.
> Possiamo tranquillamente garantire entrambi. SE vogliamo.

I "diritti umani" sono stati tirati in ballo più e più volte in questa
e altre conversazioni analoghe ma, per restare nel reame delle
fallacie logiche, a me questo pare un vero e proprio "red herring".
Pur conoscendo la dichiarazione universale dei diritti umani a
menadito, non riesco a comprendere a quale di quei diritti si faccia
riferimento.

Potrei fare ipotesi, ma preferisco domandare. Si potrebbe quindi
sapere a cosa, con rigorosa esattezza, si fa riferimento?

Fabio
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


whitespaces in filenames [was: bug in $(wildcard) on Windows?]

2005-03-18 Thread Fabio Alemagna
On Thu, 17 Feb 2005 08:50:33 -0500, Paul D. Smith <[EMAIL PROTECTED]> wrote:
> The short answer is that GNU make doesn't support filenames with spaces
> in them.
> 
> The slightly longer answer is that GNU make uses whitespace as a word
> delimiter, and there is NO reliable way to quote whitespace in words in
> all the different places where make chops up lists.

Sorry to reopen an old discussion, but I've come across this very same
issue, that is I need make to handle filenames with spaces in them
correctly.

Couldn't it be done so that instead of using spaces, as word
delimiters, make used NUL chars?

Let me explain. There could be another assignment operator, say /= or
something else, which instructed make to transform something like
this:

foo\ bar\ baz hola

or like this:
   
   "foo bar baz" hola

into

foo bar bazhola

The variable would have a special bit set so that the various
functions working on lists would know that they need to look for a NUL
char rather than for a space in order to delimit words.

Is there anything that doesn't wouldn't make this a viable option? 

Regards,
Fabio Alemagna


___
Bug-make mailing list
Bug-make@gnu.org
http://lists.gnu.org/mailman/listinfo/bug-make


Fwd: Globbing broken

2005-02-08 Thread Fabio Alemagna
Hello, my 2 past attempts at sending this email haven't succeeded, it
seems: I never got the email back and no one seems to have got it
either (at least by looking at the fact that no one answered).
Strangely enough, it IS in the archive... well, perhaps this time I'll
be luckier :-)

Regards,
Fabio Alemagna


-- Forwarded message ------
From: Fabio Alemagna <[EMAIL PROTECTED]>
Date: Sat, 5 Feb 2005 02:43:00 +0100
Subject: Globbing broken
To: bug-make@gnu.org


This is not so much of a Make problem, but rather of the globbling
library it uses. However, since Make is affected, I thought I'd post
here about my findings to see whether someone else noticed this issue
and whether someone is willing to take a look at the library :-)

Say we are in a directory which contains the following items
(directories have a trailing slash):

foo/ baz/ bar

Now, let's look at the following makefile:

DIRS1 := $(wildcard */)
DIRS2 := $(wildcard ./*/)

foo:
@echo dir1: $(DIRS1)
@echo dir2: $(DIRS2)

The output will be

dir1: baz/ foo/
dir2: ./bar ./baz/ ./foo/

dir2 should list only the directories, instead it also lists the files. Typing

echo */; echo ./*/

in the shell confirms that the correct result is the one of dir1, and
that dir2 should merely have a traling ./ in front of each item.

Generally speaking, make gives a correct result only when there's no
slashes before the last part in the path, that is when the last part
is also the first, as in the dir1 example. So, for example, also
$(wildcard foo/*/) will give the same problem.

Another problem arises when one tries to make a rule to automatically
make a directory, like this:

file.h : include/
@cp $@ $<

%/:
mkdir $@

What should happen is that when make goes to build include/, it will
find the pattern rule %/ and will execute it. This is really a fancy
and useful way to automatically make directories, isn't it? Well, if
it worked, that is.

The problem is, it works with directory names not longer than *one*
char, it doesn't work otherwise.

You may try it by yourself:

file.h : i/
cp $@ $<

%/:
mkdir $@

That will first make i/, and then copy file.h to i/.

It won't work if instead of i/ we have include/: make will say that
there's no rule to make include/. If however we have an _explicit_
rule for include/, like this:

include/:
mkdir $@

Then make fill wind it!

But we can rewrite the above rule like this:

include:
mkdir $@

Notice the lack of the trailing slash. Make will still execute the above rule.

Morover, if I make the directory include/ by myself, then surprisingly
make does recognize the directory is already there and thus doesn't
make it and doesn't spit any error!

This tells us something, which I got confirmation for by looking at make's code.

When make goes to build the various prerequisites, it _always_ uses
globbing to match the corresponding files, even if the names don't
contain any globbing characters. It basically leaves to the globbing
library the respobsibility to determine whether the filename really
needs globbing processing or not.

It works somewhat like this:

filenames_list = glob(filename)

Now, if /filename/ doesn't contain globbing characters, it should be
returned "as is". At least this is the intent, but we'll see it
doesn't really work like that.

In fact, if /filename/ points to a string like "a/", then indeed
glob() returns "a/", whether a/ already exists or not.

If /filename/ is "include/", two things may happen:

1) include/ already exists, then glob() returns "include/"
2) include/ doesn't exist, then glob() returns "include", without
the trailing slash!

And (2) is what causes the problem, because when make goes to build
"include/" but ends up building "include", without the trailing slash,
it won't find a matching pattern rule. However, if we have a rule
whose target is "include/", then make will find it, even if the rule's
 target has a trailing slash. I'm not sure why this last thing happens
exactly, and I don't know whether it's related to the same problem or
not.

This is a bug I found some time ago but just now got to report, as it
happened to me again to need make's globbing facilities. When I first
discovered the bug I did make some investigation, and I found the
cause of the problem, but right now I can't remember exactly. I didn't
have much time, though, and didn't come up with a clean patch (I had
an hackish one ready, but lost it).

So, that's all I think. Let me know what you think.


___
Bug-make mailing list
Bug-make@gnu.org
http://lists.gnu.org/mailman/listinfo/bug-make


Globbing broken

2005-02-05 Thread Fabio Alemagna
Hello, I've first sent this email to bug-make, but it hasn't come back
yet and it's been half a day since I sent it. Just in case bug-make
isn't working, I'm forwarding it here. I get mails from help-make
almost daily, so I know it works :-)

Regards,
Fabio Alemagna

-- Forwarded message --
From: Fabio Alemagna <[EMAIL PROTECTED]>
Date: Sat, 5 Feb 2005 02:43:00 +0100
Subject: Globbing broken
To: bug-make@gnu.org


This is not so much of a Make problem, but rather of the globbling
library it uses. However, since Make is affected, I thought I'd post
here about my findings to see whether someone else noticed this issue
and whether someone is willing to take a look at the library :-)

Say we are in a directory which contains the following items
(directories have a trailing slash):

foo/ baz/ bar

Now, let's look at the following makefile:

DIRS1 := $(wildcard */)
DIRS2 := $(wildcard ./*/)

foo:
@echo dir1: $(DIRS1)
@echo dir2: $(DIRS2)

The output will be

dir1: baz/ foo/
dir2: ./bar ./baz/ ./foo/

dir2 should list only the directories, instead it also lists the files. Typing

echo */; echo ./*/

in the shell confirms that the correct result is the one of dir1, and
that dir2 should merely have a traling ./ in front of each item.

Generally speaking, make gives a correct result only when there's no
slashes before the last part in the path, that is when the last part
is also the first, as in the dir1 example. So, for example, also
$(wildcard foo/*/) will give the same problem.

Another problem arises when one tries to make a rule to automatically
make a directory, like this:

file.h : include/
@cp $@ $<

%/:
mkdir $@

What should happen is that when make goes to build include/, it will
find the pattern rule %/ and will execute it. This is really a fancy
and useful way to automatically make directories, isn't it? Well, if
it worked, that is.

The problem is, it works with directory names not longer than *one*
char, it doesn't work otherwise.

You may try it by yourself:

file.h : i/
cp $@ $<

%/:
mkdir $@

That will first make i/, and then copy file.h to i/.

It won't work if instead of i/ we have include/: make will say that
there's no rule to make include/. If however we have an _explicit_
rule for include/, like this:

include/:
mkdir $@

Then make fill wind it!

But we can rewrite the above rule like this:

include:
mkdir $@

Notice the lack of the trailing slash. Make will still execute the above rule.

Morover, if I make the directory include/ by myself, then surprisingly
make does recognize the directory is already there and thus doesn't
make it and doesn't spit any error!

This tells us something, which I got confirmation for by looking at make's code.

When make goes to build the various prerequisites, it _always_ uses
globbing to match the corresponding files, even if the names don't
contain any globbing characters. It basically leaves to the globbing
library the respobsibility to determine whether the filename really
needs globbing processing or not.

It works somewhat like this:

filenames_list = glob(filename)

Now, if /filename/ doesn't contain globbing characters, it should be
returned "as is". At least this is the intent, but we'll see it
doesn't really work like that.

In fact, if /filename/ points to a string like "a/", then indeed
glob() returns "a/", whether a/ already exists or not.

If /filename/ is "include/", two things may happen:

1) include/ already exists, then glob() returns "include/"
2) include/ doesn't exist, then glob() returns "include", without
the trailing slash!

And (2) is what causes the problem, because when make goes to build
"include/" but ends up building "include", without the trailing slash,
it won't find a matching pattern rule. However, if we have a rule
whose target is "include/", then make will find it, even if the rule's
 target has a trailing slash. I'm not sure why this last thing happens
exactly, and I don't know whether it's related to the same problem or
not.

This is a bug I found some time ago but just now got to report, as it
happened to me again to need make's globbing facilities. When I first
discovered the bug I did make some investigation, and I found the
cause of the problem, but right now I can't remember exactly. I didn't
have much time, though, and didn't come up with a clean patch (I had
an hackish one ready, but lost it).

So, that's all I think. Let me know what you think.


___
Help-make mailing list
Help-make@gnu.org
http://lists.gnu.org/mailman/listinfo/help-make


Globbing broken

2005-02-04 Thread Fabio Alemagna
This is not so much of a Make problem, but rather of the globbling
library it uses. However, since Make is affected, I thought I'd post
here about my findings to see whether someone else noticed this issue
and whether someone is willing to take a look at the library :-)

Say we are in a directory which contains the following items
(directories have a trailing slash):

foo/ baz/ bar 

Now, let's look at the following makefile:

DIRS1 := $(wildcard */)
DIRS2 := $(wildcard ./*/)

foo:
@echo dir1: $(DIRS1)
@echo dir2: $(DIRS2)

The output will be

dir1: baz/ foo/
dir2: ./bar ./baz/ ./foo/

dir2 should list only the directories, instead it also lists the files. Typing 

echo */; echo ./*/

in the shell confirms that the correct result is the one of dir1, and
that dir2 should merely have a traling ./ in front of each item.

Generally speaking, make gives a correct result only when there's no
slashes before the last part in the path, that is when the last part
is also the first, as in the dir1 example. So, for example, also
$(wildcard foo/*/) will give the same problem.

Another problem arises when one tries to make a rule to automatically
make a directory, like this:

file.h : include/
@cp $@ $<

%/:
mkdir $@

What should happen is that when make goes to build include/, it will
find the pattern rule %/ and will execute it. This is really a fancy
and useful way to automatically make directories, isn't it? Well, if
it worked, that is.

The problem is, it works with directory names not longer than *one*
char, it doesn't work otherwise.

You may try it by yourself:

file.h : i/
cp $@ $<

%/:
mkdir $@

That will first make i/, and then copy file.h to i/. 

It won't work if instead of i/ we have include/: make will say that
there's no rule to make include/. If however we have an _explicit_
rule for include/, like this:

include/:
mkdir $@

Then make fill wind it!

But we can rewrite the above rule like this:

include:
mkdir $@

Notice the lack of the trailing slash. Make will still execute the above rule.

Morover, if I make the directory include/ by myself, then surprisingly
make does recognize the directory is already there and thus doesn't
make it and doesn't spit any error!

This tells us something, which I got confirmation for by looking at make's code.

When make goes to build the various prerequisites, it _always_ uses
globbing to match the corresponding files, even if the names don't
contain any globbing characters. It basically leaves to the globbing
library the respobsibility to determine whether the filename really
needs globbing processing or not.

It works somewhat like this:

filenames_list = glob(filename)

Now, if /filename/ doesn't contain globbing characters, it should be
returned "as is". At least this is the intent, but we'll see it
doesn't really work like that.

In fact, if /filename/ points to a string like "a/", then indeed
glob() returns "a/", whether a/ already exists or not.

If /filename/ is "include/", two things may happen:

1) include/ already exists, then glob() returns "include/"
2) include/ doesn't exist, then glob() returns "include", without
the trailing slash!

And (2) is what causes the problem, because when make goes to build
"include/" but ends up building "include", without the trailing slash,
it won't find a matching pattern rule. However, if we have a rule
whose target is "include/", then make will find it, even if the rule's
 target has a trailing slash. I'm not sure why this last thing happens
exactly, and I don't know whether it's related to the same problem or
not.

This is a bug I found some time ago but just now got to report, as it
happened to me again to need make's globbing facilities. When I first
discovered the bug I did make some investigation, and I found the
cause of the problem, but right now I can't remember exactly. I didn't
have much time, though, and didn't come up with a clean patch (I had
an hackish one ready, but lost it).

So, that's all I think. Let me know what you think.


___
Bug-make mailing list
Bug-make@gnu.org
http://lists.gnu.org/mailman/listinfo/bug-make


Re: RFC: .ALIAS builtin pseudotarget

2004-09-23 Thread Fabio Alemagna
On Thu, 23 Sep 2004 11:46:48 -0500, Boris Kolpackov <[EMAIL PROTECTED]> wrote:
> > Well, obviously if I do use it, and it serves its purpose, it IS useful.
> 
> You forgot about one possibility: it may work but it's not the best
> way to do it. I was trying to reason you to the better way but you got
> defensive.

I've not gotten defensive, I've simply stated that it is useful to me,
and perhaps to the masses too, unless you can show me another way,
equally simple and effective, to solve the problems I've needed to
solve.

Simply saying "it's not useful" doesn't help anyone, does it?

> > Considering the patch is really tiny, I don't see the problem.
> 
> I am not deciding what goes in and what doesn't. However, I have
> doubts in its usefulness.

Which we're debating about. Let's not start a meta-discussion now, yes?

> > > Don't see how this can be useful...
> >
> > Well, what exactly you don't find useful?
> 
> This remark was about short_module_name that aliases all modules
> that are named like this.

The fact it aliases all those modules is a side effect, welcome or
not. If you have the modules foo/baz and bar/baz, then obviously
bulding "baz" will build both of them. But most often you only have
one baz troughout your project, hence it functions as a shorthand to
_that_ module.

> > > Let's try to stage a small project by the rules you gave above.
> >
> > No need to do that, the build system has been working for more than
> > one year already, there's a whole project composed of lots of modules
> > which uses it, you might look at it as reference (notice that the
> > Makefile needs to be reworked and refactored, but the concept and the
> > Makefile.tubs files are completely valid):
> > http://cvs.sunsite.dk/viewcvs.cgi/aweb/
> 
> Do you think I have nothing else to do? 

Well, I thought you were interested in this discussion?

> You don't send patch and then
> when asked where it is useful say "go study my build system".

I don't recall having done that. I've simply pointed you to a working
makefile, to save you the need to think one up all by yourself. Who's
getting defensive here? I really don't understand your reaction...

> That's bad manners.

Really? We must have different opinions about what really is "bad
manner". To me it seems I've gone to great lenght in explaining how
and why my patch is useful, and then pointed you out to a working
system which uses it, as reference. How's that bad manner, is beyond
me.

> > > foo/foo/DEPS := libfoo.so   \ # short module name of type 2
> > > bar/libbar.so # full module name
> > >
> > > $(distdir)/foo/foo: $(foo/foo/DEPS) # ???
> > > g++ -o $@ $^
> > >
> > >
> > > The last rules won't work because when we link we need real libraries,
> > > their aliases are not good enough anymore.
> >
> > But the last rule is wrong anyway.
> 
> Well, I just followed your instructions. Here is the quote from your
> previous email:
> 
> 
> > Defining dependencies for a module is done this way:
> >
> > full_module_name/DEPS := module_name1 ... module_nameN
> >
> > where module_nameX can be either a full_module_name or a short_module_name
> >
> > The build system handles this by simply defining full_module_name and
> > both variants of short_module_name as .ALIAS'es to
> > $(distdir)/full_module_name, and then simply adds a rule like this:
> >
> > $(distdir)/full_module_name : $(full_module_name/DEPS)
> 
> 
> don't bother to reply,

Well, sorry, but I'm replying anyway. You might notice that there's no
action for that rule - you added an action. You will also notice that
I've stated DEPS lists module names - you've used them directly to
link in the executable, which is obviously wrong.

In any case, I've simply told you your usage of the construct was
wrong, but I've not meant with that to "attack" you in any way: it's
simply the truth. Even if it might be my fault, for not having
expressed myself correctly and fully, I still cannot see the reason
for your reaction. Accusing me of getting defensive would be the last
thing I'd expect you to do, at this point...

Fabio Alemagna


___
Help-make mailing list
[EMAIL PROTECTED]
http://lists.gnu.org/mailman/listinfo/help-make


Re: RFC: .ALIAS builtin pseudotarget

2004-09-23 Thread Fabio Alemagna
On Thu, 23 Sep 2004 11:46:48 -0500, Boris Kolpackov <[EMAIL PROTECTED]> wrote:
> > Well, obviously if I do use it, and it serves its purpose, it IS useful.
> 
> You forgot about one possibility: it may work but it's not the best
> way to do it. I was trying to reason you to the better way but you got
> defensive.

I've not gotten defensive, I've simply stated that it is useful,
unless you can show me another way, equally simple and effective, to
solve the problems I've needed to solve.

Simply saying "it's not useful" doesn't help anyone, does it?

> > Considering the patch is really tiny, I don't see the problem.
> 
> I am not deciding what goes in and what doesn't. However, I have
> doubts in its usefulness.

Which we're debating about. Let's not start a meta-discussion now, yes?

> > > Don't see how this can be useful...
> >
> > Well, what exactly you don't find useful?
> 
> This remark was about short_module_name that aliases all modules
> that are named like this.

The fact it aliases all modules is a side effect, welcome or not. If
you have the modules foo/baz and bar/baz, then obviously bulding "baz"
will build both of them. But most often you only have one baz
troughout your project, hence it functions as a shorthand to _that_
module.

> > > Let's try to stage a small project by the rules you gave above.
> >
> > No need to do that, the build system has been working for more than
> > one year already, there's a whole project composed of lots of modules
> > which uses it, you might look at it as reference (notice that the
> > Makefile needs to be reworked and refactored, but the concept and the
> > Makefile.tubs files are completely valid):
> > http://cvs.sunsite.dk/viewcvs.cgi/aweb/
> 
> Do you think I have nothing else to do? 

Well, I thought you were interested in this discussion?

> You don't send patch and then
> when asked where it is useful say "go study my build system".

I don't recall having done that. I've simply pointed out to a working
makefile, to save you the need to think one up yourself. Who's getting
defensive here? I really don't understand your reaction...

> That's bad manners.

Really? We must have different opinions about what really is "bad
manner". To me it seems I've gone to great lenght in explaining how
and why my patch is useful, and then pointed you out to a working
system which uses it, as reference. How's that bad manner, is beyond
me.

> > > foo/foo/DEPS := libfoo.so   \ # short module name of type 2
> > > bar/libbar.so # full module name
> > >
> > > $(distdir)/foo/foo: $(foo/foo/DEPS) # ???
> > > g++ -o $@ $^
> > >
> > >
> > > The last rules won't work because when we link we need real libraries,
> > > their aliases are not good enough anymore.
> >
> > But the last rule is wrong anyway.
> 
> Well, I just followed your instructions. Here is the quote from your
> previous email:
> 
> 
> > Defining dependencies for a module is done this way:
> >
> > full_module_name/DEPS := module_name1 ... module_nameN
> >
> > where module_nameX can be either a full_module_name or a short_module_name
> >
> > The build system handles this by simply defining full_module_name and
> > both variants of short_module_name as .ALIAS'es to
> > $(distdir)/full_module_name, and then simply adds a rule like this:
> >
> > $(distdir)/full_module_name : $(full_module_name/DEPS)
> 
> 
> don't bother to reply,

Well, sorry, but I'm replying anyway. You might notice that there's no
action for that rule - you added an action. You will also notice that
I've stated DEPS lists module names - you've used them directly to
link in the executable, which is obviously wrong.

Not meaning to be harsh, but perhaps you could pay more attention,
rather than getting defensive?

Fabio Alemagna


___
Help-make mailing list
[EMAIL PROTECTED]
http://lists.gnu.org/mailman/listinfo/help-make


Re: RFC: .ALIAS builtin pseudotarget

2004-09-23 Thread Fabio Alemagna
On Thu, 23 Sep 2004 11:00:33 -0500, Boris Kolpackov <[EMAIL PROTECTED]> wrote:
> As I said before, IMO, .ALIAS is useless because (1) when you need
> timestamp you also need real target name and (2) when you don't need
> real target name you don't need timestamp. The second case is covered
> by .PHONY and the first - by normal targets. Therefore I don't quite
> see where .ALIAS is useful. 

Well, obviously if I do use it, and it serves its purpose, it IS useful.

The point is that I want a virtual file, a file which does't really
exists but which still acts as a file. Perhaps you don't find it
useful for your own needs, but I do, and some others might as well.
Considering the patch is really tiny, I don't see the problem.

> [short explanation of how does the build system work]
>
> Don't see how this can be useful...

Well, what exactly you don't find useful? The build system as a whole,
or just the shorthand thing? If you refer to the build system, I'd be
interested in a more articulated opinion; if you referred to the
shorthands, they come handy when you want to build only one module and
you know there are no other modules with the same filename, to let you
save typing, or when you want to build all modules in one directory,
for whatever reason, without carying about the others. It's all about
being able to selectively chose what to build and what not. If you
don't need those features, you're free to not use them, but if you do
need them, they're there.

I do need them, hence they're there. I'm not even sure this is the
right place to discuss such a thing anyway. You asked me to point to
things which the current make cannot do, and that's all I've done.

> Let's try to stage a small project by the rules you gave above. 

No need to do that, the build system has been working for more than
one year already, there's a whole project composed of lots of modules
which uses it, you might look at it as reference (notice that the
Makefile needs to be reworked and refactored, but the concept and the
Makefile.tubs files are completely valid):
http://cvs.sunsite.dk/viewcvs.cgi/aweb/
 
> Say we have
> module `foo/foo' (executable) and `foo1/libfoo.so', `foo2/libfoo.so' and
> `bar/libbar.so'. So here we go:
>
> [...]
>
> foo/foo/DEPS := libfoo.so   \ # short module name of type 2
> bar/libbar.so # full module name
> 
> $(distdir)/foo/foo: $(foo/foo/DEPS) # ???
> g++ -o $@ $^
> 
> ---
> 
> The last rules won't work because when we link we need real libraries,
> their aliases are not good enough anymore.

But the last rule is wrong anyway.  DEPS is not meant to contain
object files suggest above, neither library names to be linked in the
program. Those are _module_ names, in no way intented to be used the
way you did.  Look at the link I've given above to see how it works.

Fabio Alemagna


___
Help-make mailing list
[EMAIL PROTECTED]
http://lists.gnu.org/mailman/listinfo/help-make


Re: RFC: .ALIAS builtin pseudotarget

2004-09-23 Thread Fabio Alemagna
On Wed, 22 Sep 2004 11:34:13 -0500, Boris Kolpackov <[EMAIL PROTECTED]> wrote:
> Please CC [EMAIL PROTECTED] if you want to discuss stuff like this.

Sorry, I thought I had done that.
 
> Fabio Alemagna <[EMAIL PROTECTED]> writes (full quote):
> 
> > > Now to your proposal: what you are suggesting essentially is
> > > a timestamp but the prerequisite is hidden, there is no way you can
> > > access it. Here is an example:
> > >
> > > .ALIAS: alias
> > >
> > > alias: foo.c
> > >
> > > foo.o: alias
> > > $(CC) -o $@ -c ???
> >
> > I get what you mean, so the limited use of this special target perhaps
> > doesn't warrant it the right to be added to Make.

On a second thought, though, I'm not sure it's usage is really
limited. In the above example, you're obviously using the wrong
approach. .ALIAS is not meant to be used as a variable, .ALIAS is
meant to be used as a .PHONY target which however can be used as
prerequisite of another target.

As said, I found the need for this in my build system.

In my build system you have modules, modules are of certain types
(executable, library, and so on), and each module type induces certain
properties on the module itself, properties which can be set and
gotten by using a well defined naming convention for variables.

Modules can depend on other modules, meaning that before one module is
built, another must be built.

A module's name is defined as the pathname of the file the module is
going to build, relative to the distribution directory.

The distribution directory is the directory where all modules are
going to be placed.

Modules can be built in 3 ways:

1) typing "make" in the toplevel source directory (this is going to
change, allowing one to run make from any directory in the tree),
which makes all modules in the source tree.

2) typing "make full_module_name", where full_module_name can be
something like path/to/module

3) typing "make short_module_name", where short_module_name is a
shorthand for the module name. There are 2 kind of  shorthands:

3.1) $(dir full_module_name), which builds all modules that are
going to be put in the
   same directory

3.2) $(notdir full_module_name), which builds all modules with the
same filename, even
   if they're going to be built in different directories.

Defining dependencies for a module is done this way:

full_module_name/DEPS := module_name1 ... module_nameN

where module_nameX can be either a full_module_name or a short_module_name

The build system handles this by simply defining full_module_name and
both variants of short_module_name as .ALIAS'es to
$(distdir)/full_module_name, and then simply adds a rule like this:

$(distdir)/full_module_name : $(full_module_name/DEPS)

It's fast, clean, and works just well.

Perhaps it won't be the most widely used .SPECIALTARGET, but it has its uses.

It's somewhat possible to emulate its functionality by using
variables, in which case the above rule would look somewhat like this:

$(distdir)/full_module_name : $(foreach d,
$(full_module_name/DEPS), $($(d)))

provided that somewhere in the makefile $(d) has been assigned the
right value. However, this forces the definition of the above rule to
come after all definitions of all variables involved, which is quite a
strict requirement. Moveover, to emulate the functionality of .ALIAS
targets being real targets, one needs to use .PHONY targets with the
names of the variables involved, and make them depend on the values of
those variables.

It can certainly be done, but adds complexity and slows the makefile
processing down, for all those variables expansions which could be
avoided. I'm not sure how much slower it would be, though.

> > This might not sound very useful at a glance, but it would be really
> > useful if .VIRTUAL's prerequisites could use stems.
> >
> > Consider this case:
> >
> > .VIRTUAL : MD5(%) CHECK_MD5(%)
> >
> > CHECK_MD5(%) :
> > md5sum --check $*.md5 >/dev/null 2>&1
> >
> > MD5(%) : CHECK_MD5(%)
> > md5sum -b $* > $*.md5
> > exit 1
> >
> > file.c : MD5(header1.h) MD5(header2.h) MD5(header3.h)
> >
> > (You don't really need CHECK_MD5(%), an if statement could be used
> > instead, but it's there to illustrate the functionality).
> 
> Exactly! You can already do this in a much more straightforward way.

I actually hadn't thought of sentinel files, which I must admit here
suit the job well, I was thinking specifically of CHECK_MD5, which
wouldn't be needed, but MD5 still would (without considering sentinel
files).

> Also see
> 
> http://kolpackov.net/pipermail/notes/2004-Septem

RFC: .ALIAS builtin pseudotarget

2004-09-21 Thread Fabio Alemagna
Hello,

I've submitted some days ago a patch to Make's patch manager, which
makes... Make support a new kind of special, builtin target, the
.ALIAS target.

I've got no feedback on the matter, so I thought that perhaps the
patch went unnoticed... that's why I'm opening a discussion here. In
case you're interested, the patch is discussed at
https://savannah.gnu.org/patch/?func=detailitem&item_id=3342

Regards,
Fabio Alemagna


___
Help-make mailing list
[EMAIL PROTECTED]
http://lists.gnu.org/mailman/listinfo/help-make


Re: ld -defsym option

2003-07-08 Thread Fabio Alemagna
On Tue, 8 Jul 2003, Andreas Schwab wrote:

> Fabio Alemagna <[EMAIL PROTECTED]> writes:
>
> |> Symbol names have to be specified using the same mangling as they have in
> |> the compiler's asm output. The m68k port of gcc puts a '_' before every
> |> symbol's name,
>
> That depends on the target.  Those using the ELF format typically don't.

Yes, you're right, but when I said "68k port" I was mainly thinking of
AmigaOS.

Fabio Alemagna



___
Help-make mailing list
[EMAIL PROTECTED]
http://mail.gnu.org/mailman/listinfo/help-make


Re: ld -defsym option

2003-07-08 Thread Fabio Alemagna
On Tue, 8 Jul 2003, S kris wrote:

> Hi,
>
> I am trying to link the x.o and sample.a (contains y.o) using ld for
> creating executable. I have used -defsym xsymbol=ysymbol as the linker
> option for changing the symbol "xsymbol" defined in x.c to the symbol
> "ysymbol" defined in y.c. But i get the error "Undefined symbol
> 'ysymbol' referenced in x.o". What may be the reason for this error? Is
> this something to do with archive?
>
> Please help me in fixing this?

Symbol names have to be specified using the same mangling as they have in
the compiler's asm output. The m68k port of gcc puts a '_' before every
symbol's name, hence you should use -defsym _xsymbol=_ysymbol.

Fabio Alemagna



___
Help-make mailing list
[EMAIL PROTECTED]
http://mail.gnu.org/mailman/listinfo/help-make


Re: problems with $(eval include...)

2003-06-30 Thread Fabio Alemagna
On Mon, 30 Jun 2003, Peter A. Kerzum wrote:

> Yeah, Fabio's way seem quite clean and pretty. I agree that eval should
> support include.
>
> > Sure.  You specify that the other prerequisites also depend on exe-deps:
> >
> >   foo: exe-deps foo.o bar.o baz.o
> >   foo.o bar.o baz.o: exe-deps
> >
>
> But as far as I understand make this will cause troubles if exe-deps
> will include rule for any (all) of foo.o bar.o baz.o -- is it ?

Exactly. For the way make is conceived now, once it starts building a
target it doesn't check for any other rule which have that save target. In
other words, once make goes to build foo.o, and then it executes a rule
which imports some other rules for foo.o, those rules are just ignored.

This I think should change, so that my apporach would be seamlessy
supported.

> I dont like recursive makes too -- there's a long time I am looking for
> a good solution to avoid it. May be you can point me to a some
> discussion regarding complex GNU make-based build systems (I've read
> paulandlesley =) or may be we should discuss this elsewhere ?

My system is growing up quite nicely, if you're interested I can give you
you some example code, and explain how does that work. Would be good if we
could discuss this on an ML, so that other people who are interested may
join the discussion.

Fabio Alemagna

PS: yes Paul, the exhaustive bug report is about to come, haven't had time
to care about it lately :)





___
Bug-make mailing list
[EMAIL PROTECTED]
http://mail.gnu.org/mailman/listinfo/bug-make


Re: problems with $(eval include...)

2003-06-28 Thread Fabio Alemagna
On Fri, 27 Jun 2003, Paul D. Smith wrote:
>   fa> automake uses recursive makefiles, which is something I want to
>   fa> avoid.
>
> I wasn't suggesting automake in total, I was suggesting their dependency
> generation style only... this is basically what's described on my
> website.

hum... I must have got something wrong, then... Please, clarify this: does
that method allow for proper handling of autogenerated files AND the usage
of one single big makefile as opposed to multiple recursive makefiles?

>   fa> exe: exe-deps obj1.o obj2.o obj3.o
>
>   fa> exe-deps:
>   fa> $(eval -include obj1.d obj2.d obj3.d)
>
> This is not reliable.
>
> The instant you want to start allowing parallel builds, which are
> critical for today's software builds and for taking full advantage of
> today's hardware, your method is no longer guaranteed to work.

Isn't there any way to tell make to build exe-deps before any of the other
prerequisites of exe, even with -jn, n > 1? I think there should be one,
if there's not.

> I thought you sent me an email saying that using the CVS source, it
> worked?

It works only in some situations, whilst in others it segfaults. I'm not
quite sure which are those situations yet. I have to investigate further.
There's one common behaviour, though: in any case, even if there's no
segfault, if the file doesn't exist make doesn't invoke the rule to
generate it, as it should instead do.

>   fa> I'm going away from that way of doing dependencies, I certainly
>   fa> don't want to go back to it. Anyway, I'm pointing out a bug which
>   fa> needs to be solved anyway.
>
> I agree the core dump needs to be solved (if it's not already in CVS).
>
> However, I'm not so sure I agree that the method your using would be
> supported.  I don't know that it wouldn't be, but I'm not at all
> prepared to say right now that using $(eval ...) inside a command script
> to enhance or modify make's internal dependency graph by adding more
> prerequisites, would work.
>
> Make carries a lot of internal state during its walk of the dependency
> graph, like where it is, what it's looking for, etc., and if you go
> modifying the structure of that graph while make is in the middle of
> resolving it I can't say for sure that everything will work properly.

Yeah, I had that same concern, so I tried to check whether it worked, and
to my surprise it worked. But later on I discovered that it didn't work as
expected and didn't ALWAYS work, leading to segfaults. I suspect these
segfaults and the general malfunctioning are due to the fact that make
doesn't take into consideration that such an $(eval) construct might be
used that way. I'm sure I hit an "hidden" and not foreseen feature of
$(eval), which should be supported though, so to be consistent with the
general $(eval) semantics.

Fabio Alemagna



___
Bug-make mailing list
[EMAIL PROTECTED]
http://mail.gnu.org/mailman/listinfo/bug-make


Re: problems with $(eval include...)

2003-06-28 Thread Fabio Alemagna
On Sat, 28 Jun 2003, Paul D. Smith wrote:
> %% Fabio Alemagna <[EMAIL PROTECTED]> writes:
>
>   fa> so this might be used as fall-back solution in case the make's bug
>   fa> doesn't get solved.
>
> In an earlier email from you you said you were using the CVS code and
> "it worked" (or words to that effect, I don't have the email any
> longer).
>
> Can you please clarify whether or not this core dump still exists in the
> CVS code and, if so, give details and/or file a bug report?

It still exists in the current CVS (unless something relevant has changed
in the last 2 days, that is). I'll try to prepare precise bug report
later.

Fabio Alemagna



___
Bug-make mailing list
[EMAIL PROTECTED]
http://mail.gnu.org/mailman/listinfo/bug-make


Re: problems with $(eval include...)

2003-06-27 Thread Fabio Alemagna
On Sat, 28 Jun 2003, Fabio Alemagna wrote:
> This is the code:
>
> define getdeplist_1
> $(eval __ALLDEPS__ += $(1)) $(foreach m,$(1),$(foreach d,$($(m)/DEPS),$(if \
> $(findstring $(d),$(__ALLDEPS__)),,$(call getdeplist_1,$(d)
> endef

This one is simpler and more correct (in that it doesn't allow any
duplicate modules in the deps list):

define getdeplist_1
$(foreach m,$(1),$(if $(findstring $(m),$(__ALLDEPS__)),,$(eval \
__ALLDEPS__ += $(m)) $(call getdeplist_1,$($(m)/DEPS
endef

However it might be slower, because it adds one module at time to the
list.

Fabio Alemagna



___
Bug-make mailing list
[EMAIL PROTECTED]
http://mail.gnu.org/mailman/listinfo/bug-make


Re: problems with $(eval include...)

2003-06-27 Thread Fabio Alemagna
On Fri, 27 Jun 2003, Fabio Alemagna wrote:
> Yes, that's what I thought too, however You'd agree that it would take
> time for make to accomplish that job, and perhaps there could be other
> issues, like dependency loops, which would be impossible to solve, or very
> very difficult. It seems only perfectly logical, to me, to exploit make
> itself to do that dependencies check rather than doing it "by hand".

Well, I've come up with some code which calculates all dependencies and
even detects loops, so this might be used as fall-back solution in case
the make's bug doesn't get solved.

This is the code:

define getdeplist_1
$(eval __ALLDEPS__ += $(1)) $(foreach m,$(1),$(foreach d,$($(m)/DEPS),$(if \
$(findstring $(d),$(__ALLDEPS__)),,$(call getdeplist_1,$(d)
endef

getdeplist = $(eval __ALLDEPS__ :=) $(call getdeplist_1,$(1)) $(__ALLDEPS__)

The function to call is getdeplist, which in turn calls getdeplist_1 which
is implemented by recursion.

Given this makefile:

---
#the dependency graph for the following modules is not acyclic
a/DEPS := e f g h
e/DEPS := i j k e
i/DEPS := j
j/DEPS := a f o

all:
@echo $(call getdeplist,a b c d)
---

Gives the following result:

a b c d e i j f o k g h

Which is correct.

Fabio Alemagna



___
Bug-make mailing list
[EMAIL PROTECTED]
http://mail.gnu.org/mailman/listinfo/bug-make


  1   2   >