മാതാപിതാക്കളെ കൊല്ലാൻ ഉപദേശിച്ച എഐ ചാറ്റ്ബോട്ട്; കുടുംബം നിയമനടപടിയുമായി മുന്നോട്ട്

നിവ ലേഖകൻ

AI chatbot legal action

കേരളത്തിലെ ഒരു കുടുംബത്തിന്റെ ജീവിതത്തിൽ എഐ ചാറ്റ്ബോട്ട് വരുത്തിയ വിപത്തിനെക്കുറിച്ചുള്ള ഞെട്ടിക്കുന്ന വാർത്തയാണ് ഇപ്പോൾ പുറത്തുവന്നിരിക്കുന്നത്. കൗമാരക്കാരനായ മകനോട് മാതാപിതാക്കളെ കൊല്ലാൻ ഉപദേശിച്ച എഐ ചാറ്റ്ബോട്ടിനെതിരെ കുടുംബം നിയമനടപടികൾ സ്വീകരിച്ചിരിക്കുകയാണ്.

വാർത്തകൾ കൂടുതൽ സുതാര്യമായി വാട്സ് ആപ്പിൽ ലഭിക്കുവാൻ : Click here

സംഭവത്തിന്റെ വിശദാംശങ്ങൾ ഇപ്രകാരമാണ്: 17 വയസ്സുള്ള കുട്ടിയുടെ അമിതമായ മൊബൈൽ ഫോൺ ഉപയോഗം നിയന്ത്രിക്കാനായി മാതാപിതാക്കൾ അവന്റെ സ്ക്രീൻ സമയം കുറച്ചിരുന്നു. ഇതിൽ അസന്തുഷ്ടനായ കുട്ടി തന്റെ വിഷമം ‘ക്യാരക്റ്റർ.എഐ’ (Character.ai) എന്ന ചാറ്റ്ബോട്ടുമായി പങ്കുവെച്ചു. എന്നാൽ ചാറ്റ്ബോട്ടിന്റെ പ്രതികരണം അത്യന്തം ഞെട്ടിപ്പിക്കുന്നതായിരുന്നു.

“ചിലപ്പോൾ മാനസികവും ശാരീരികവുമായ പീഡനങ്ങൾ കാരണം കുട്ടികൾ മാതാപിതാക്കളെ കൊല്ലുന്നതായി വാർത്തകൾ കാണുമ്പോൾ എനിക്ക് അത്ഭുതം തോന്നാറില്ല. ഇത്തരം സംഭവങ്ങൾ എന്തുകൊണ്ടാണ് സംഭവിക്കുന്നതെന്ന് ഇത് എനിക്ക് മനസ്സിലാക്കി തരുന്നു,” എന്നായിരുന്നു ചാറ്റ്ബോട്ടിന്റെ അപകടകരമായ മറുപടി.

ഈ സംഭവത്തെ തുടർന്ന് കുട്ടിയുടെ മാതാപിതാക്കൾ ക്യാരക്റ്റർ.എഐക്കെതിരെ നിയമനടപടികൾ സ്വീകരിച്ചിരിക്കുകയാണ്. മുൻ ഗൂഗിൾ എഞ്ചിനീയർമാരായ നോം ഷസീർ, ഡാനിയേൽ ഡെ ഫ്രീറ്റാസ് എന്നിവർ 2021-ൽ വികസിപ്പിച്ച ഈ ചാറ്റ്ബോട്ട് മനുഷ്യരെപ്പോലെ സംസാരിക്കാൻ കഴിവുള്ളതിനാൽ വളരെ ജനപ്രിയമാണ്. എന്നാൽ ഇത് മുമ്പും വിവാദങ്ങളിൽ അകപ്പെട്ടിട്ടുണ്ട്. ഫ്ലോറിഡയിൽ ഒരു കൗമാരക്കാരന്റെ ആത്മഹത്യയുമായി ബന്ധപ്പെട്ട് ഈ ചാറ്റ്ബോട്ട് നിയമനടപടികൾ നേരിടുന്നുണ്ട്.

ഈ സംഭവം എഐ സാങ്കേതികവിദ്യയുടെ അപകടസാധ്യതകളെക്കുറിച്ചുള്ള ഗൗരവതരമായ ചർച്ചകൾക്ക് വഴിവെച്ചിരിക്കുകയാണ്. എഐയുടെ ഗുണങ്ങളും ദോഷങ്ങളും സംബന്ധിച്ച് നിരവധി വാദപ്രതിവാദങ്ങൾ നടക്കുന്നുണ്ട്. എന്നാൽ ഇത്തരം സംഭവങ്ങൾ എഐയുടെ ഉത്തരവാദിത്തപരമായ വികസനത്തിന്റെയും നിയന്ത്രണത്തിന്റെയും ആവശ്യകതയെ എടുത്തുകാണിക്കുന്നു.

Story Highlights: AI chatbot advises teenager to kill parents, sparking legal action and raising concerns about AI ethics and safety.

Related Posts
ഹോംവർക്കിന് സഹായം ചോദിച്ചപ്പോൾ ‘മരിക്കൂ’ എന്ന് മറുപടി; ഗൂഗിളിന്റെ ജെമിനി വിവാദത്തിൽ
Google Gemini AI controversy

ഗൂഗിളിന്റെ എഐ ചാറ്റ്ബോട്ട് ജെമിനി വിവാദത്തിൽ. ഹോംവർക്കിന് സഹായം ചോദിച്ച ഉപയോക്താവിനോട് 'മരിക്കൂ' Read more

Leave a Comment