Inloggen

X

"Nu Hub 4 is uitgebracht, is het tijd om de Nextcloud Ethical AI Rating te introduceren.

Er zijn steeds meer risico's verbonden aan computerintelligentie, en als een transparant softwarebedrijf hebben we de verantwoordelijkheid om in te grijpen en onze gebruikers te beschermen.

Onlangs heeft Microsoft zijn hele team voor ethiek en maatschappij ontslagen, het team dat medewerkers leerde hoe ze verantwoordelijk met AI-tools moesten omgaan. Nextcloud daarentegen omarmt de ethiek en uitdagingen die vandaag de dag deel uitmaken van AI en heeft als doel deze rechtstreeks aan te pakken.

Uitdagingen

Het AI-veld ontwikkelt zich snel en veel van de nieuwe mogelijkheden hebben te maken met ethische en zelfs juridische uitdagingen.

Bijvoorbeeld:

- Privacy en beveiliging van gebruikersgegevens
- Discriminatie en vooroordelen
- Energieverbruik

Met name bij op neurale netwerken gebaseerde AI-technologieën is de loutere beschikbaarheid van open-sourcecode niet langer voldoende om te kunnen zeggen dat je controle hebt over je gegevens of dat de software veilig en ethisch is. De dataset en de gebruikte trainingssoftware, evenals de beschikbaarheid van het uiteindelijke model, zijn allemaal factoren die de mate van vrijheid en controle bepalen die een gebruiker heeft.

Ethische AI-standaarden

Tot Hub 3 slaagden we erin functies aan te bieden zoals gerelateerde bronnen, aanbevolen bestanden, onze prioriteitsinbox en zelfs gezichts- en objectherkenning zonder te vertrouwen op eigen blobs of servers van derden.

Hoewel er een grote community is die ethische, veilige en privacyrespecterende technologieën ontwikkelt, zijn er veel andere relevante technologieën die gebruikers mogelijk willen gebruiken.

Met Hub 4 willen we gebruikers deze baanbrekende technologieën bieden, maar we willen ook transparant zijn. Voor sommige gebruiksscenario's kan ChatGPT een redelijke oplossing zijn, terwijl het voor andere gegevens van cruciaal belang is om een lokale, on-premises, open oplossing te hebben. Om deze te onderscheiden, hebben we een Ethical AI Rating ontwikkeld.

Regels voor de Ethical AI Rating

Onze Ethical AI Rating is bedoeld om snel inzicht te geven in de ethische implicaties van een specifieke integratie van AI in Nextcloud. We moedigen gebruikers natuurlijk nog steeds aan om dieper in de specifieke oplossing die ze gebruiken te duiken, maar we hopen dat we op deze manier de keuze voor de meerderheid van onze gebruikers en klanten kunnen vereenvoudigen.

De rating heeft vier niveaus:
Rood 🔴 Oranje 🟠 Geel 🟡 Groen 🟢

En is gebaseerd op punten van deze factoren:
✅ Is de software (zowel voor inferentie als training) open source?
✅ Is het getrainde model vrij beschikbaar voor self-hosting?
✅ Is de trainingsdata beschikbaar en vrij te gebruiken?

Als aan al deze punten is voldaan, geven we het een groen 🟢 label.

Als er aan geen van deze punten is voldaan, is het rood 🔴.

Als er aan 1 voorwaarde is voldaan, is het oranje 🟠 en als er aan 2 voorwaarden is voldaan, is het geel 🟡.

We voegen nog een extra opmerking toe aan de rating: vooringenomenheid. Aangezien het praktisch onmogelijk is om te bewijzen dat er geen vooringenomenheid is, wijzen we er alleen op of er bij onze laatste controle belangrijke vooringenomenheden (zoals discriminatie op basis van ras of geslacht bij bijvoorbeeld gezichtsherkenningstechnologie) zijn ontdekt in de dataset of in de weergave van het model.

Natuurlijk zijn er andere ethische overwegingen voor AI. Er zijn juridische uitdagingen rond de gebruikte datasets (met name auteursrecht) en het energieverbruik van met name diepe neurale netwerken baart grote zorgen. Helaas zijn die zorgen extreem moeilijk objectief te kwantificeren, en hoewel we van plan zijn gebruikers te waarschuwen voor eventuele openstaande kwesties, kunnen we ze (nog) niet opnemen in onze rating.

Om die reden raden we gebruikers aan zelf te onderzoeken wat de gevolgen zijn van het gebruik van AI voor hun individuele geval met behulp van de Nextcloud Ethical AI Rating.

Bron: https://nextcloud.com/blog/nextcloud-ethical-ai-rating/