Ответ

Внимание! Пока вы просматривали тему, появилось 129 новых ответа. Возможно, вы захотите изменить свое сообщение.

Обратите внимание: данное сообщение не будет отображаться, пока модератор не одобрит его.

Имя:
E-mail:
Тема:
Иконка:

Визуальная проверка:
Капустно-карнавальный...:

подсказка: нажмите alt+s для отправки или alt+p для предварительного просмотра сообщения


Сообщения в этой теме

Автор: Енот
« : 29 октября 2024, 08:06:00 »

Но киберпреступники - это же люди, не ИИ?


Увы..Это вечный вопрос специалистов в области информационной безопасности...и  мы должны быть на шаг впереди, чтобы злоумышленники не могли нас обойти.
Автор: Енот
« : 29 октября 2024, 07:56:44 »

Самая тревожная тенденция - это киберпреступность, которая активно развивается.

 Риск киберпреступности для стимулов к инновациям и инвестициям значительно больше, чем годовой ущерб, нанесенный стихийными бедствиями. А в криминальном плане это выгоднее, чем мировая торговля всеми основными незаконными наркотиками в совокупности....пишут эксперты.
Автор: Вик
« : 29 октября 2024, 01:00:09 »

Но киберпреступники - это же люди, не ИИ?
Зачем ИИ деньги?
Автор: Вик
« : 29 октября 2024, 00:59:51 »

Самая тревожная тенденция - это киберпреступность, которая активно развивается.
Но киберпреступники - это же люди, не ИИ?
Автор: Mic
« : 29 октября 2024, 00:57:49 »

Если ИИ получит распространение во многие сферы жизни, то следить за ним станет сложнее.
Самая тревожная тенденция - это киберпреступность, которая активно развивается.
Автор: Вик
« : 29 октября 2024, 00:52:18 »

Важно, чтобы разработчики и пользователи ИИ были осведомлены о возможных рисках и работали над ними, создавая надежные, безопасные и этичные системы.
Этика для ИИ - это интересно 🤔
Автор: Вик
« : 29 октября 2024, 00:50:58 »


 Поэтому нужно исследовать ИИ в части безопасности, для минимизации возможных угроз, рисков и их последствий.
Если ИИ получит распространение во многие сферы жизни, то следить за ним станет сложнее.
Автор: Вик
« : 29 октября 2024, 00:41:31 »

Вот это и будет "лечение" такое!
Лишь бы ИИ не научился уговаривать))
Автор: Енот
« : 28 октября 2024, 22:28:15 »

Да, человечество - мастер создавать себе проблемы.

Важно, чтобы разработчики и пользователи ИИ были осведомлены о возможных рисках и работали над ними, создавая надежные, безопасные и этичные системы.
Автор: Енот
« : 28 октября 2024, 22:24:30 »

Вот зачем такое создавать?


 Поэтому нужно исследовать ИИ в части безопасности, для минимизации возможных угроз, рисков и их последствий.
Автор: Марина В.
« : 26 октября 2024, 19:52:42 »

Мне кажется, если был такой сбой - то только уничтожать.

Вот это и будет "лечение" такое!
Автор: Mila
« : 25 октября 2024, 00:10:43 »

Как в пословице - не было у тетки забот, купила порося. Вот так и про человечество и некоторые его решения...
Да, человечество - мастер создавать себе проблемы.
Автор: Mila
« : 25 октября 2024, 00:10:02 »

Лечить не планируют такой "мозг"?
Мне кажется, если был такой сбой - то только уничтожать.
Автор: Mila
« : 25 октября 2024, 00:08:13 »

   Говорить о ценности ИИ можно много и долго, пока лично не пострадаешь от его решений.
Надеюсь, ИИ не сможет сам принимать решения.
Автор: Mila
« : 25 октября 2024, 00:07:06 »


 Но «Ящик Пандоры» уже приоткрыт и остановить прогресс не получиться. Даже если заморозить открытое развитие ИИ, оно может продолжить свое развитие скрыто и нелегально. Помимо опасности, ИИ также представляет и большую ценность, поскольку может помочь решить множество сложных задач, перенаправить потенциал людей, взяв на себя их деятельность и вывести человечество на новый уровень развития.
Это всё при условии, что его будут контролировать умные люди.
.