Digamos que está modelando una entidad que tiene muchos atributos (más de 2400), mucho mayor que el límite físico en un motor de base de datos dado (por ejemplo, ~ 1000 SQL Server). Sin saber nada sobre la importancia relativa de estos puntos de datos (cuáles son los más utilizados/calientes) además de las claves de dominio/candidato, ¿cómo lo implementaría?¿Cómo implementaría una "tabla" muy amplia?
A) EAV. (boo ... Herramientas nativas relacionales lanzadas por la ventana.)
B) Siga recto. La primera tabla tiene una clave principal y 1000 columnas, hasta el límite. La siguiente tabla es 1000, ajena a la primera. La última tabla es los 400 restantes, también con clave externa.
C) Raya uniformemente en las tablas ceil(n/limit)
. Cada tabla tiene un número par de columnas, la clave externa para la primera tabla. 800, 800, 800.
D) Otra cosa ...
Y por qué?
Editar: Esta es más una pregunta filosófica/genérica, no vinculada a ningún límite o motor específico.
Editar^2: Como muchos han señalado, los datos probablemente no se normalizaron. Por lo general, las limitaciones comerciales en el momento hicieron que la investigación profunda sea imposible.
Me advirtió que era una cuestión de opinión. Ehh, no sé. –
Sí, eliminé mi consulta "por qué CW" cuando vi su edición. –