Êtes-vous intéressé par eux OFFRES? Économisez avec nos coupons sur WHATSAPP o TELEGRAM!

OpenAI manœuvre les lois sur l'IA en Europe : voici comment cela a affecté

OpenAI, le géant de l'IA, a récemment fait la une des journaux pour son rôle dans l'élaboration de la législation sur l'IA dans l'Union européenne. On voit aujourd'hui, grâce au Temps, comme l'entreprise a a fait pression sur l'UE pour influencer les lois sur l'IA, un sujet qui devient de plus en plus pertinent à mesure que l'intelligence artificielle gagne du terrain dans diverses industries.

Le lobbying d'OpenAI conduit à des changements importants dans la législation européenne sur l'intelligence artificielle

OpenAI a joué un rôle actif dans le lobbying auprès de l'Union européenne pour atténuer la législation entrante sur l'intelligence artificielle. Deuxième documents obtenus de Temps, OpenAI a demandé aux législateurs d'apporter plusieurs modifications à un projet de loi de l'UE sur l'IA, connu sous le nom de "Loi de l'UE sur l'IA», avant qu'il ne soit approuvé par le Parlement européen le 14 juin.

La législation de l'UE sur l'IA a été conçue pour mieux réglementer l'utilisation de l'intelligence artificielle. Avant son adoption, les législateurs ont débattu de l'élargissement des termes de la loi sur l'IA pour désigner tous les systèmes d'intelligence artificielle à usage général (GPAI) comme "à haut risque". Cela aurait impliqué le respect des obligations de sécurité et de transparence les plus strictes. OpenAI, avec Google et Microsoft, s'est battu contre cette désignation, argumentant que seules les entreprises qui appliquent explicitement l'IA aux cas d'utilisation à haut risque devraient être soumises à de telles réglementations.

ouvert

Lire aussi: OpenAI : Altman explique pourquoi GPT-5 n'est pas en production

L'influence d'OpenAI

OpenAI a réussi dans sa actes di pression. Certains des changements suggérés par OpenAI ont été incorporés dans la législation. Notamment, les GPAI ne sont pas automatiquement classés comme à haut risque dans la version finale de la loi européenne sur l'IA. impose des exigences de transparence plus importantes sur les "modèles de base", qui sont de puissants systèmes d'IA qui peuvent être utilisés pour différentes tâches. Cela obligera les entreprises à effectuer des évaluations des risques et à divulguer si du matériel protégé par le droit d'auteur a été utilisé pour former leurs modèles d'IA.

Tandis que OpenAI affirme que ses actions de lobbying sont dans le meilleur intérêt de la communauté de l'IA, certains critiques soutiennent que l'entreprise est plus soucieuse de protéger ses intérêts financiers que de promouvoir l'intérêt public. L'IA devenant de plus en plus omniprésente dans notre société, il est Il est essentiel qu'il y ait des réglementations adéquates pour garantir qu'il est utilisé de manière responsable et en toute sécurité. Cependant, il est également important que ces réglementations n'étouffent pas l'innovation.

OpenAI a montré que les grandes entreprises technologiques peuvent avoir un impact significatif sur les lois régissant l'IA. Cela soulève des questions sur la manière dont nous pouvons garantir que ces lois sont formulées dans l'intérêt du public et pas seulement des entreprises.

Mots clés:

Gianluca Cobucci
Gianluca Cobucci

Passionné de code, de langages et langages, d'interfaces homme-machine. Tout ce qui est évolution technologique m'intéresse. J'essaie de divulguer ma passion avec la plus grande clarté, en m'appuyant sur des sources fiables et non « au premier passage ».

Souscrire
notifier
invité

0 commentaires
Commentaires en ligne
Voir tous les commentaires
XiaomiToday.it
Logo