بهترین و جدیدترین ویدئو های روز

پخش ویدئو بعدی ... {{ next_video.title }}
[توقف]

یه مرد بلژیکی بعد از اینکه چند هفته داشت با یه چت‌باتی به اسم الیزا راجع به مشکلات و دغدغه‌هاش صحبت می‌کرد خودکشی کرد، چون چت‌بات بهش گفته بود این کارو بکنه! این خبریه که این چند وقته حسابی وایرال شده و خیلی‌ها رو هم نگران کرده. به‌نظرتون وقتی به هوش مصنوعی اعتماد می‌کنیم و میذاریم AI برای زندگیمون تصمیم بگیره، چه پیامدهایی می‌تونه داشته باشه؟ از این دست خبرها باز هم بوده و توی این ویدیو بیشتر از خطرات چت‌بات‌ها بهتون می‌گیم.

0.05 sec, flt: 0 time: 9, count: 11, slow: 0