Теперь, спустя несколько лет, кажется, что проблемы безопасности ИИ эмпирически обоснованы (например, взлом вознаграждения в моделях кодирования), но подход OpenAI «развертывай, итерируй, обучайся» до сих пор работал нормально. Модели становятся лучше, некоторые вещи ломаются, и вы строите ограждения по ходу дела...
Где это ломается, так это если: 1) Другой участник развертывает мощные модели в значимых условиях без этих ограничений 2) Модели начинают развиваться слишком быстро, чтобы наш OODA-цикл успевал (например, сценарий сингулярности)
Где это ломается: 1) Другой участник разворачивает мощные модели в значимых условиях без этих ограничений 2) Модели начинают развиваться слишком быстро, чтобы наш OODA-цикл успевал (например, сценарий сингулярности)
Где это ломается: 1) Другой участник разворачивает мощные модели в значимых условиях без этих ограничений на месте или 2) Модели начинают улучшаться слишком быстро, чтобы наш OODA-цикл успевал (например, сценарий сингулярности)
232