Bij de ontwikkeling van 6G-netwerken stuiten ontwerpers op een paradox: naarmate er meer apparaten op de infrastructuur worden aangesloten, wordt het moeilijker om een stabiele werking te garanderen zonder dat het energieverbruik en de vertragingen de pan uit rijzen. Onderzoek naar agent-gebaseerde kunstmatige intelligentie op basis van een 'Mixture of Experts' stelt voor om computing en netwerkinteractie zodanig te integreren dat het systeem zich autonoom aanpast aan de belasting en beslissingen neemt zonder voortdurende menselijke tussenkomst. Dit verandert de traditionele visie op netwerken als louter passieve kanalen voor informatieoverdracht.
Hoewel huidige netwerken al AI inzetten voor resourcebeheer, gebeurt dit vaak volgens strikte regels die niet altijd opgewassen zijn tegen onvoorspelbare scenario's. Agent-gebaseerde AI kan echter niet alleen reageren, maar ook proactief acties plannen door gebruik te maken van een Mixture of Experts-mechanisme om de meest geschikte modellen te selecteren op basis van de context. Volgens de onderzoeksresultaten kan dit het energieverbruik aanzienlijk verminderen en de bandbreedte vergroten, wat essentieel is voor grootschalige uitrol in stedelijke gebieden.
In tegenstelling tot traditionele benaderingen waarbij verwerking en communicatie gescheiden zijn, stelt de voorgestelde architectuur AI-agenten in staat om taken dynamisch te verdelen. In een scenario met een groot aantal IoT-sensoren verdeelt de agent-gebaseerde AI de gegevensverwerking bijvoorbeeld tussen lokale apparaten en centrale servers, waardoor vertragingen en dataverkeer tot een minimum worden beperkt. Het Mixture of Experts-principe activeert daarbij alleen de benodigde modules, vergelijkbaar met een team van specialisten waarbij alleen de relevante experts worden ingeschakeld om een probleem op te lossen. Dit vermindert de totale hoeveelheid overgedragen informatie en versnelt de reactietijd van het hele systeem.
Achter deze technische voordelen schuilen echter prangende kwesties op het gebied van controle en ethiek. Wanneer autonome agenten zelf de prioriteiten voor gegevensverwerking bepalen, kunnen gebruikers het zicht verliezen op hoe en waar hun informatie wordt gebruikt. Deskundigen benadrukken dat er ingebouwde auditmechanismen en mogelijkheden voor menselijke tussenkomst in kritieke situaties nodig zijn om misbruik te voorkomen. Bovendien worden beveiligingsvraagstukken urgenter, aangezien aanvallen op dergelijke systemen veel verstrekkendere gevolgen kunnen hebben dan bij traditionele netwerken.
In het dagelijks leven beloven deze netwerken een betrouwbaardere werking van slimme steden, autonoom vervoer en telegeneeskunde. Apparaten zullen minder energie verbruiken en applicaties blijven ook bij een hoge belasting vlekkeloos functioneren. Tegelijkertijd verandert dit de relatie tussen mens en technologie, waarbij die laatste een actievere rol gaat spelen in alledaagse processen, wat van gebruikers een nieuw niveau van bewustzijn vraagt over de werking van deze systemen.
Analisten onderstrepen dat het succes van de technologie grotendeels afhangt van de manier waarop vraagstukken rond standaardisatie en compatibiliteit tussen verschillende hardwarefabrikanten worden opgelost. Zonder een uniforme aanpak voor de implementatie van agent-systemen en de Mixture of Experts-methode, kan de integratie in wereldwijde 6G-netwerken te maken krijgen met versnippering en extra complicaties.
Om ervoor te zorgen dat deze veranderingen vruchten afwerpen zonder onvoorziene gevolgen, moeten ontwikkelaars en toezichthouders vanaf het begin inzetten op algoritmische transparantie en de bescherming van de autonomie van de gebruiker.



