Sembrerebbero quasi tesi lapalissiane, ma... non dopo uno scroll veloce degli 
ultimi 100 post su Linkedin. 
Grazie per la condivisione.
Stefano




Inviato con l'email sicura Proton Mail.

martedì 6 maggio 2025 15:58, Daniela Tafani <[email protected]> ha 
scritto:

> Ciao, Maurizio,
> 
> riprendono alcune tesi che hanno già sostenuto altrove:
> 
> - nel passaggio da ricerca a commercio, ossia da una scoperta o un'invenzione 
> allo sviluppo di prodotti, è decisiva la distinzione tra capacità e 
> affidabilità:
> un sistema che effettui correttamente la prenotazione di un volo aereo 9 
> volte su 10 è definito, tecnicamente, come capace di farlo,
> ma nessuno lo vorrebbe, come "agente" di viaggio. Ed è improbabile che le 
> tecniche che consentono di arrivare al 90% di correttezza ci portino fino al 
> 100%.
> Per i prodotti, come le auto a guida autonoma, in cui quel 10% di errori è 
> costoso, non sono accettabili sperimentazioni nel mondo reale;
> 
> - i benchmark non misurano l'utilità nel mondo reale;
> 
> - l'idea della superintelligenza su fonda su errori concettuali e logici: 
> l'intelligenza non è né una caratteristica fissa e stabile né omogenea e 
> misurabile su scala unidimensionale. Non esiste un'accezione utile del 
> termine "intelligenza" in cui l'IA sia più intelligente delle persone che la 
> usano. Le situazioni reali in cui siano necessarie capacità di computazione 
> velocissima sono limitate;
> 
> - la regolazione promuove, non ostacola, diffusione e innovazione; in ogni 
> caso, la maggior parte dei settori in cui l'IA verrà usata è già regolata. 
> Chi sostiene che manchi una regolazione dell'IA sostiene una regolazione 
> modello-centrica, che non ha senso;
> 
> - human-in-the-loop e allineamento dei modelli non sono soluzioni;
> 
> - se consideriamo l'IA come una tecnologia normale, terremo presenti gli 
> effetti più verosimili della sua introduzione, anziché quelli fantascientici. 
> Ad esempio, l'aumento di pratiche estrattive e quindi di disuguaglianza.
> 
> Un saluto,
> Daniela
> 
> 
> 
> 
> ________________________________________
> Da: nexa [email protected] per conto di maurizio lana 
> [email protected]
> 
> Inviato: martedì 6 maggio 2025 14:24
> A: [email protected]
> Oggetto: Re: [nexa] AI as Normal Technology
> 
> grazie della segnalazione.
> il paper linkato è di 52 pagine quindi non azzardo commenti anche se le prime 
> pagine che ho letto mi paiono sensate e centrate.
> in ogni caso il tema che gli autori pongono mi pare rilevante:
> The normal technology frame is about the relationship between technology and 
> society. It rejects technological determinism, especially the notion of AI 
> itself as an agent in determining its future. It is guided by lessons from 
> past technological revolutions, such as the slow and uncertain nature of 
> technology adoption and diffusion. It also emphasizes continuity between the 
> past and the future trajectory of AI in terms of societal impact and the role 
> of institutions in shaping this trajectory.
> ovvio che chi non ha mai visto un martello potrebbe decidere di vederci una 
> rappresentazione del divino ma sappiamo che serve per piantare chiodi; e nel 
> piantare chiodi è molto utile per tutti quelli che prima usavano pietre prese 
> al fiume per piantare i chiodi; e così facendo spesso si schiacciavano le 
> unghie o storcevano i chiodi.
> 
> Maurizio
> 
> 
> 
> Il 04/05/25 14:56, Daniela Tafani ha scritto:
> 
> AI as Normal Technology
> An alternative to the vision of AI as a potential superintelligence
> By Arvind Narayanan and Sayash Kapoor
> April 15, 2025
> 
> We articulate a vision of artificial intelligence (AI) as normal technology. 
> To view AI as normal is not to understate its impact—even transformative, 
> general-purpose technologies
> such as electricity and the internet are “normal” in our conception. But it 
> is in contrast to both utopian and dystopian visions of the future of AI 
> which have a common tendency to
> treat it akin to a separate species, a highly autonomous, potentially 
> superintelligent entity.
> 
> The statement “AI is normal technology” is three things:
> a description of current AI,
> a prediction about the foreseeable future of AI, and
> a prescription about how we should treat it.
> 
> We view AI as a tool that we can and should remain in control of, and we 
> argue that this goal does not require drastic policy interventions or 
> technical breakthroughs. We do not
> think that viewing AI as a humanlike intelligence is currently accurate or 
> useful for understanding its societal impacts, nor is it likely to be in our 
> vision of the future.
> The normal technology frame is about the relationship between technology and 
> society.
> It rejects technological determinism, especially the notion of AI itself as 
> an agent in determining its future. It is guided by lessons from past 
> technological revolutions, such as
> the slow and uncertain nature of technology adoption and diffusion. It also 
> emphasizes continuity between the past and the future trajectory of AI in 
> terms of societal impact and
> the role of institutions in shaping this trajectory.
> 
> In Part I, we explain why we think that transformative economic and societal 
> impacts will be slow (on the timescale of decades), making a critical 
> distinction between AI methods,
> AI applications, and AI adoption, arguing that the three happen at different 
> timescales.
> 
> In Part II, we discuss a potential division of labor between humans and AI in 
> a world with advanced AI (but not “superintelligent” AI, which we view as 
> incoherent as usually conceptualized). In this world, control is primarily in 
> the hands of people and organizations; indeed, a greater and greater 
> proportion of what people do in their jobs is AI control.
> 
> In Part III, we examine the implications of AI as normal technology for AI 
> risks. We analyze accidents, arms races, misuse, and misalignment, and argue 
> that viewing AI as normal technology leads to fundamentally different 
> conclusions about mitigations compared to viewing AI as being humanlike.
> Of course, we cannot be certain of our predictions, but we aim to describe 
> what we view as the median outcome. We have not tried to quantify 
> probabilities, but we have tried to
> make predictions that can tell us whether or not AI is behaving like normal 
> technology.
> 
> In Part IV, we discuss the implications for AI policy. We advocate for 
> reducing uncertainty as a first-rate policy goal and resilience as the 
> overarching approach to catastrophic risks.
> 
> We argue that drastic interventions premised on the difficulty of controlling 
> superintelligent AI will, in fact, make things much worse if AI turns out to 
> be normal technology— the
> downsides of which will be likely to mirror those of previous technologies 
> that are deployed in capitalistic societies, such as inequality
> 
> https://www.aisnakeoil.com/p/ai-as-normal-technologyhttps://www.aisnakeoil.com/p/ai-as-normal-technology
> 
> 
> 
> 
> ________________________________
> 
> if we spent on prosecuting the rich
> just one-tenth of the effort we spend prosecuting the poor
> it would be a very different world
> Bruce Schneier
> 
> ________________________________
> Maurizio Lana
> Università del Piemonte Orientale
> Dipartimento di Studi Umanistici
> Piazza Roma 36 - 13100 Vercelli

Reply via email to