Ja, die Bibel sollte in unseren Schulen gelehrt werden, denn es ist notwendig, die Bibel zu verstehen, wenn wir unsere eigene Kultur und ihre Entstehung wirklich verstehen wollen. Die Bibel hat jeden Teil der westlichen Kultur beeinflusst, von unserer Kunst, Musik und Geschichte bis hin zu unserem Sinn für Fairness, Nächstenliebe und Geschäft.