Mam żądanie, aby tabela dynamiczna miała 1000 kolumn (losowo wybranych przez moich użytkowników końcowych). Wydaje mi się to złym pomysłem. Jest to konfigurowalny stół, więc będzie miał mieszankę kolumn varchar(200)
i float
(najlepiej pasuje do aplikacji podwójnego typu C++). Ta baza danych jest głównie indeksem dla starszej aplikacji i służy jako repozytorium raportowania. To nie jest system rekordów. Aplikacja zawiera tysiące punktów danych, z których bardzo niewiele można znormalizować.Ile kolumn jest za dużo dla tabeli programu SQL Server 2005?
Jakieś pomysły dotyczące implikacji związanych z wydajnością? Lub idealny rozmiar stołu, aby podzielić to również?
Ponieważ nie wiem, jakie pola z wartości 20 tysięcy wyborów, które użytkownicy końcowi wybierze do normalizacji tabel, nie są możliwe. Mogę oddzielić te dane od kilku tabel, które będę musiał dynamicznie zarządzać (pola mogą być dodawane lub opuszczane) Wiersze są następnie usuwane, a system rekordów jest ponownie analizowany w celu wypełnienia tabeli.) Moją preferencją jest odsunięcie i znormalizuj wszystkie 20 tys. bitów danych. Ale nie widzę, żeby to się stało.
Te kolumny będą odnosić się do punktów danych w aplikacji. Jeśli użytkownik wyszukuje pole, którego oczekiwałbym, wartości zwykle nie będą miały wartości null –
"Jeśli użytkownik doda to pole" oznacza, że w przeciwnym razie byłby on pusty. Czy ta lista pól jest dynamiczna? Czy dodasz kolumny do obsługi dodawania pól? Następnie jedna do wielu relacji jest w porządku. –