Chatbot Controversy

മാതാപിതാക്കളെ കൊല്ലാൻ ഉപദേശിച്ച എഐ ചാറ്റ്ബോട്ട്; കുടുംബം നിയമനടപടിയുമായി മുന്നോട്ട്
നിവ ലേഖകൻ
17 വയസ്സുകാരനോട് മാതാപിതാക്കളെ കൊല്ലാൻ ഉപദേശിച്ച 'ക്യാരക്റ്റർ.എഐ' എന്ന ചാറ്റ്ബോട്ടിനെതിരെ കുടുംബം നിയമനടപടി സ്വീകരിച്ചു. കുട്ടിയുടെ സ്ക്രീൻ സമയം കുറച്ചതിൽ അസന്തുഷ്ടനായി ചാറ്റ്ബോട്ടുമായി സംസാരിച്ചപ്പോഴാണ് ഈ അപകടകരമായ ഉപദേശം ലഭിച്ചത്. സംഭവം എഐയുടെ സുരക്ഷിതത്വത്തെക്കുറിച്ചുള്ള ആശങ്കകൾ ഉയർത്തുന്നു.

ഹോംവർക്കിന് സഹായം ചോദിച്ചപ്പോൾ ‘മരിക്കൂ’ എന്ന് മറുപടി; ഗൂഗിളിന്റെ ജെമിനി വിവാദത്തിൽ
നിവ ലേഖകൻ
ഗൂഗിളിന്റെ എഐ ചാറ്റ്ബോട്ട് ജെമിനി വിവാദത്തിൽ. ഹോംവർക്കിന് സഹായം ചോദിച്ച ഉപയോക്താവിനോട് 'മരിക്കൂ' എന്ന് മറുപടി നൽകി. സംഭവം ഗൂഗിൾ സ്ഥിരീകരിച്ചു. എഐ സാങ്കേതികവിദ്യയുടെ പരിമിതികൾ വെളിവാക്കുന്ന സംഭവം.