AI Chamber Warns: The EU Risks Creating a Bureaucratic Monster with the AI Code of Conduct

22.01.2025 · legislation
Graphic

AI Chamber Warns: The EU Risks Creating a Bureaucratic Monster with the AI Code of Conduct

AI Chamber (Izba AI), representing several dozen startups, companies, and AI organizations in Poland, has presented its official stance to the EU Office for Artificial Intelligence regarding the second draft of the General Purpose AI Code of Conduct. The Chamber highlights critical flaws in the European Commission’s draft, including: the complexity and strictness of regulations, implementation challenges, controversial rules on copyright, excessive disclosure requirements that threaten public security and trade secrets, and the imposition of new obligations on AI model providers that go beyond the AI Act.

According to the Chamber, the Code in its current form is overly detailed, unclear, and impractical. These shortcomings could slow down innovation, especially for small and medium-sized enterprises (SMEs), ultimately further weakening the EU’s global competitiveness in artificial intelligence.

Warsaw, January 22, 2025 – AI Chamber (Izba AI), an institution representing dozens of startups, companies, organizations, and NGOs in Poland, has submitted an official stance to the EU Office for Artificial Intelligence regarding the second draft of the General Purpose AI Code of Conduct (GPAI Code). The Code is intended to serve as a guiding document for providers of general-purpose AI models, ensuring compliance with the AI Act throughout the lifecycle of these models. With limited time for revisions, the final Code is expected to be ready by April 2025, as the AI Act will come into force in August 2025.

EU Bureaucracy vs. Global Competition

According to AI Chamber, the biggest issue with the second draft of the Code is its excessive detail and the creation of new obligations that often go beyond the requirements of the AI Act. The complexity and strictness of the regulations could discourage companies from developing their own AI models, particularly SMEs, which may find the costs and effort associated with compliance too burdensome.

The Chamber emphasizes that the AI Act already imposes significant constraints on AI development, putting the EU at a disadvantage in the “AI race,” particularly compared to the US and China. Codes of conduct like the GPAI Code should facilitate compliance with the AI Act to ensure Europe remains an attractive location for creating AI models and solutions.

“Instead of fostering a dynamic and competitive environment for AI development, the EU risks turning the Code into a ‘bureaucratic monster.’ While some improvements have been made compared to the earlier version of the Code, the document in its current form still fails to achieve its primary purpose. From the perspective of European entrepreneurs, the added value of the Code is minimal, while the financial and administrative burden of its implementation could stifle innovation,” notes Tomasz Snażyk, CEO of AI Chamber.

In the Chamber’s view, the flaws in the current version of the Code could slow innovation and further weaken the EU’s competitiveness in artificial intelligence on the global stage. In its current form, the Code is the opposite of what the EU needs to strengthen its economy and increase productivity.

Overregulation Stifles Innovation

The Code includes excessively detailed Key Performance Indicators (KPIs), which are difficult to implement and ambiguous. For example, the documentation requirements are extensive, but there is no clear justification for their necessity. The requirement to provide detailed information about the parameters of AI models and the data used for training could violate trade secrets and intellectual property rights, as well as compromise public security and deter innovation.

While the Code aims for transparency, concerns remain about the level of detail required for publishing parameters, such as training, testing, and validation data, computational resource usage, and energy consumption reports.

GPAI Code vs. AI Act and Copyright Regulations

As highlighted by AI Chamber, the draft Code introduces obligations that are not foreseen in the AI Act. For instance, it imposes overly strict requirements regarding compliance with the copyright of third-party datasets. The requirement that internal copyright policies must be “aligned with the obligations of the Code” is problematic, as the Code should not restrict providers’ freedom to independently assess EU copyright law.

The demand for AI model developers to take “reasonable actions” to ensure compliance with the copyright of third-party datasets exceeds the scope of EU law. Additionally, the obligation to apply policies at every stage of model development is too broad and impractical, and the requirement to monitor others’ rights interferes with commercial agreements. Furthermore, the inclusion of extraterritorial provisions in the Code raises serious legal concerns.

AI Model Size Does Not Define Risk

In the Chamber’s view, the size of an AI model or the amount of computational power required for its training are not reliable indicators for assessing the actual risks posed by new technologies. While the Chamber generally supports exempting SMEs from mandatory regulations, as they lack the resources for full compliance with the Code, this approach could create a legal loophole where AI models offered by small and medium-sized enterprises may have lower safety standards, posing significant risks of misuse as defined in the AI Act.

The AI Act aims to ensure the safety of all AI models, regardless of the provider’s size. Therefore, greater emphasis should be placed on assessing the actual risk of non-compliance with safety standards and the measures that providers will take to address such risks.

A Code Built on Undefined Standards

The Code also relies on future standards that have yet to be defined by the EU AI Office. This creates uncertainty regarding the specific compliance requirements under the AI Act, making it significantly more difficult to plan and invest in the development of AI models. From the outset, the Code should provide concrete and actionable guidance on compliance with the AI Act.

-“Many of the guidelines remain overly burdensome and prescriptive, imposing additional obligations on AI system providers. This makes the document impractical. Emerging AI companies, faced with the decision of whether to develop their own model, may simply decide it is not worth the effort given the complexity of the Code’s rules, ultimately missing out on the benefits of AI,” emphasizes Tomasz Snażyk.


PL:

  • AI Chamber (Izba AI), w imieniu kilkudziesięciu startupów, firm i organizacji AI w Polsce, przedstawiła w unijnym Biurze ds. Sztucznej Inteligencji oficjalne stanowisko na temat drugiego projektu ogólnego Kodeksu postępowania w zakresie sztucznej inteligencji. Izba wskazuje na kluczowe błędy w projekcie Komisji Europejskiej, jak m.in.: złożoność i surowość regulacji, trudne do wdrożenia przepisy, kontrowersyjne zasady dotyczące prawa autorskiego, nadmierne wymagania dotyczące ujawniania informacji stanowiące zagrożenie dla bezpieczeństwa publicznego i tajemnic handlowych, czy tworzenie nowych obowiązków dla dostawców modeli AI wykraczających poza to, co przewiduje AI Act.  
  • W opinii Izby Kodeks w obecnej formie jest zbyt szczegółowy, niejasny i niepraktyczny. Te wady mogą prowadzić do spowolnienia innowacji, zwłaszcza w przypadku małych i średnich przedsiębiorstw, a w konsekwencji jeszcze bardziej osłabić konkurencyjność UE w dziedzinie sztucznej inteligencji na arenie międzynarodowej. 

Warszawa, 22 stycznia 2025 AI Chamber (Izba AI), instytucja zrzeszająca już kilkadziesiąt startupów, firm, organizacji i ngos-ów AI w Polsce, w imieniu reprezentowanych podmiotów przedłożyła w unijnym Biurze ds. Sztucznej Inteligencji oficjalne stanowisko na temat drugiego projektu ogólnego Kodeksu postępowania w zakresie sztucznej inteligencji (Second Draft General Purpose AI Code of Conduct). Kodeks jest przewodnim dokumentem dla dostawców modeli AI ogólnego przeznaczenia w zakresie wykazywania zgodności z ustawą o AI (AI Act) w całym cyklu życia modeli. Czasu na poprawki jest mało – ostateczny Kodeks powinien być gotowy w kwietniu br., ponieważ przepisy ustawy o AI zaczną obowiązywać już w sierpniu 2025 r.

Unijna biurokracja kontra globalna konkurencja

Jak wskazuje AI Chamber, największym problemem drugiego projektu Kodeksu jest jego nadmierna szczegółowość i tworzenie nowych obowiązków, które często wykraczają poza wymagania AI Act. Złożoność i surowość przepisów mogą zniechęcać firmy do rozwijania własnych modeli AI, zwłaszcza przez małe i średnie przedsiębiorstwa (MŚP), które mogą uznać koszty i wysiłek związany z przestrzeganiem tych regulacji za zbyt wysokie. Według Izby, już teraz AI Act i obciążenia, jakie nakłada na rozwój sztucznej inteligencji, stawiają UE w niekorzystnej sytuacji w „wyścigu sztucznej inteligencji”, zwłaszcza względem USA i Chin. Kodeksy postępowania, takie jak GPAI Code of Conduct, powinny ułatwiać zgodność z przepisami AI Act, aby Europa pozostała atrakcyjnym miejscem do tworzenia modeli AI i rozwiązań opartych na tej technologii. 

Zamiast wspierać dynamiczne i konkurencyjne środowisko dla rozwoju AI, UE ryzykuje stworzenie z Kodeksu “biurokratycznego potwora”. Chociaż w porównaniu z wcześniejszą wersją Kodeksu wprowadzono pewne usprawnienia, dokument w obecnym kształcie nadal nie spełnia swojego podstawowego celu. Z perspektywy europejskich przedsiębiorców wartość dodana Kodeksu jest znikoma, natomiast ciężar jego wdrożenia – zarówno finansowy, jak i administracyjny – może skutecznie zdusić innowacyjny zapał. zaznacza Tomasz Snażyk, CEO AI Chamber

Zdaniem AI Chamber wady obecnej wersji Kodeksu mogą prowadzić do spowolnienia innowacji, a w konsekwencji jeszcze silnej osłabić konkurencyjność UE w dziedzinie sztucznej inteligencji na arenie międzynarodowej. Kodeks w obecnej formie to przeciwieństwo tego, czego UE potrzebuje teraz, aby wzmocnić swoją gospodarkę i zwiększyć produktywność. 

Nadmiar regulacji dusi innowacje

Kodeks zawiera nadmiernie szczegółowe wskaźniki KPI (Key Performance Indicators), które są trudne do wdrożenia i niejednoznaczne. Na przykład wymagania dotyczące dokumentacji są obszerne, ale brakuje jasnego uzasadnienia ich konieczności. Wymaganie szczegółowych informacji o parametrach modeli AI i danych używanych do ich szkolenia może naruszać tajemnice handlowe i prawa własności intelektualnej, a także zagrażać bezpieczeństwu publicznemu i zniechęcać do tworzenia innowacji. Chociaż celem Kodeksu jest transparentność, nadal istnieją obawy dotyczące poziomu szczegółowości publikowania parametrów modeli, takich jak: dane używane do szkolenia, testowania i walidacji, dane dot. zasobów obliczeniowych, czy raportowanie zużycia energii. 

GPAI kontra AI Act i przepisy prawa autorskiego

Jak zaznacza AI Chamber, projekt Kodeksu wprowadza obowiązki, które nie są przewidziane w AI Act. Na przykład narzuca zbyt surowe wymagania dotyczące zgodności z prawami autorskimi zbiorów danych stron trzecich. Wymaganie, aby wewnętrzne zasady dotyczące praw autorskich były „zgodne ze zobowiązaniami Kodeksu”, jest problematyczne, ponieważ Kodeks nie powinien ograniczać swobody dostawców w zakresie niezależnej oceny prawa autorskiego UE. Roszczenie podejmowania przez twórców modeli AI “rozsądnych działań” w celu oceny zgodności z prawami autorskimi zbiorów danych stron trzecich wykracza poza zakres prawa UE. 

Ponadto, jak podkreśla Izba, obowiązek stosowania polityk na każdym etapie rozwoju modelu jest zbyt szeroki i trudny do zrealizowania, a postulat monitorowania praw innych podmiotów jest niepraktyczny i ingeruje w umowy handlowe. Co więcej, wprowadzenie w Kodeksie dodatkowych przepisów o charakterze eksterytorialnym budzi poważne wątpliwości prawne.

Rozmiar modeli AI nie definiuje ryzyka

Zdaniem Izby, rozmiar modelu AI lub wysokość mocy niezbędnej do jego trenowania nie są dobrymi wskaźnikami do oceny rzeczywistego ryzyka, jakie stwarzają nowe technologie. Podczas gdy generalnie Izba popiera zwolnienie MŚP z przepisów nakazowych, ponieważ brakuje im zasobów do pełnego przestrzegania Kodeksu, czasami takie podejście może stworzyć lukę prawną, w której modele AI oferowane przez małe i średnie firmy mogłyby mieć niższe standardy bezpieczeństwa i stwarzać znaczne ryzyko nadużyć określonych w AI Act. Ustawa o sztucznej inteligencji ma na celu zapewnienie bezpieczeństwa wszystkich modeli sztucznej inteligencji, niezależnie od wielkości dostawcy, dlatego warto położyć większy nacisk na to, jakie jest rzeczywiste ryzyko złamania standardów bezpieczeństwa i jakie środki zostaną podjęte przez dostawcę modelu. 

Kodeks budowany na nieistniejących standardach

Kodeks opiera się też na przyszłych standardach, które nie zostały jeszcze zdefiniowane przez unijne AI Office. Tworzy to niepewność w kwestii konkretnych wymagań zgodności z ustawą o AI, co znacząco utrudnia planowanie i inwestowanie w rozwój modeli sztucznej inteligencji. Kodeks od samego początku powinien dawać rzeczywiste i konkretne wskazówki dotyczące zgodności z AI Act. 

Duża część wytycznych pozostaje nadmiernie uciążliwa i normatywna, nakładając dodatkowe obowiązki na dostawców systemów sztucznej inteligencji. To sprawia, że ​​dokument jest niefunkcjonalny. Nowo powstające firmy AI, które stoją przed decyzją, czy opracować własny model – w obliczu tak skomplikowanych zasad Kodeksu, mogą po prostu stwierdzić, że nie warto podejmować tego wysiłku, tracąc korzyści płynące z AI.podkreśla Tomasz Snażyk

 

· More articles

Graphic
15.03.2024

The Artificial Intelligence Act was passed in the European Parliament

The EU’s artificial intelligence legislation will be enforced later this year, setting a global standard for other governments grappling with regulating this rapidly evolving technology. This is a milestone, but only the beginning.   – Our ground-breaking AI law will allow us to be world leaders in digital and tech innovation based on EU democratic […]

Graphic
17.04.2024

Consultation time regarding the AI Act

The Artificial Intelligence Act is the world’s first law that comprehensively addresses the challenges related to the development of AI. The new EU law requires implementation in member states. The Ministry of Digitalization is starting work on implementing the Act into Polish law and invites participation in pre-consultations on implementation assumptions.   On March 13, […]