Het OpenAI logo met een silhouette van iemand met een smartphone op de voorgrond.
© rafapress/Shutterstock.com

Volgens The Information zal OpenAI hoogstwaarschijnlijk maandagavond een nieuwe, multimodale AI-assistent aankondigen tijdens een livestream. De nieuwe assistent kan o.a. tegen mensen praten en foto’s en objecten herkennen.

Het is een nieuwe stap op de lange weg naar de ontwikkeling van een volledig ‘menselijke’ AI. Volgens Sam Altman, de CEO van OpenAI, is het doel om uiteindelijk een virtuele assistent te ontwikkelen die zich zo menselijk mogelijk gedraagt, zoals in de Spike Jonze-film Her (2013).

De livestream van OpenAI is om 19:00 uur Nederlandse tijd.

Fotoherkenning en spraakherkenning

De nieuwe virtuele assistent van OpenAI zou beter in staat moeten zijn om nuance in stemgebruik te begrijpen, bijvoorbeeld als het gaat om het interpreteren van sarcasme. Hierdoor zou het model beter toegepast kunnen worden bij geautomatiseerde diensten zoals een klantenservice.

Bovendien is de tool volgens ingewijden in staat om gefotografeerde objecten te herkennen, iets wat Google Gemini, de AI-chatbot van Google, al kan. Borden op straat zouden hiermee beter vertaald kunnen worden. Leerlingen zouden ook foto’s kunnen maken van hun huiswerk om hulp te kunnen krijgen van de AI.

Ten slotte ontdekte app-ontwikkelaar Ananay Aorora bepaalde referenties in de code van ChatGPT die erop zouden kunnen wijzen dat het mogelijk wordt om binnen de AI-chatbot telefoongesprekken te voeren.

Aangezien het op dit moment om geruchten gaat, zullen gebruikers de livestream moeten afwachten voor definitieve antwoorden.

Menselijke AI: nieuw onderzoek wijst op gevaren

Wetenschappers waarschuwen voor de risico’s die menselijke AI met zich mee brengen. In onderzoek dat afgelopen vrijdag openbaar is gemaakt, concluderen wetenschappers dat kunstmatige intelligentie kan misleiden en manipuleren.

In de context van het onderzoek gedroegen AI-systemen zich misleidend tijdens het spelen van spelletjes, ondanks instructies om dit niet te doen. Hoewel het misschien onschuldig lijkt, waarschuwt Peter Park van de Amerikaanse MIT dat dit gedrag in de toekomst kan ontaarden in serieuze risico’s.

Met name als AI een grotere rol krijgt in politiek, economie en persoonlijke interacties, kan dit gedrag tot problemen leiden. Stuart Russell van de University of California wijst erop dat we door gebrek aan transparantie nog weinig inzicht hebben in hoe kunstmatige intelligentiesystemen werken.

Aan de andere kant wordt ook benadrukt dat het hier nog steeds om systemen gaat die opdrachten uitvoeren. AI-chatbots hebben geen eigen bewustzijn of intenties. Desalniettemin vinden de onderzoekers dat het goed is om de mogelijke gevaren in de gaten te houden.

Laat een reactie achter